home *** CD-ROM | disk | FTP | other *** search
/ Amiga Plus 1995 #2 / Amiga Plus CD - 1995 - No. 2.iso / internet / faq / englisch / comp.arch.storage < prev    next >
Encoding:
Text File  |  1995-04-11  |  125.1 KB  |  3,452 lines

  1. Archive-name: arch-storage/part1
  2. Version: $Header: /home/rdv/comp-arch-storage/RCS/FAQ-1.draft,v 1.15 95/02/14 20:20:39 rdv Exp $
  3. Posting-Frequency: monthly
  4.  
  5. Rod Van Meter, Joe Stith, and the gang on comp.arch.storage
  6.  
  7. Information on disk, tape, MO, RAID and SSD can be found in part 1 of
  8. the FAQ.  Part 2 covers file systems, hierarchical storage management,
  9. backup software, robotics, benchmarking, MTBF and miscellaneous
  10. topics.
  11.  
  12.  
  13. 1.     Editor's Note
  14.  
  15. 2.     Disclaimer
  16.  
  17. 3.     Original Editor's notes
  18.  
  19. 4.     Truly Frequently Asked Questions
  20.  
  21. 5.     Tape
  22. 5.1.   Cartridge vs Cassette
  23. 5.2.   Longitudinal
  24. 5.3.   Serpentine
  25. 5.4.   Helical Scan
  26. 5.5.   9-track {brief}
  27. 5.6.   3480/3490/3490E {brief}
  28. 5.6.1. New IBM Tape (NTP)
  29. 5.7.   QIC {brief}
  30. 5.8.   4mm {brief}
  31. 5.9.   8mm {brief}
  32. 5.9.1. Mammoth {Brief,New}
  33. 5.10.  DEC/DLT {full}
  34. 5.10.0.1. DLT4000 (From DEC)
  35. 5.10.0.2. DLT2700 (from DEC)
  36. 5.10.0.3. DLT2000 (from DEC)
  37. 5.11.  Metrum VHS {brief}
  38. 5.12.  VCR VHS
  39. 5.13.  19MM (D1 and D2) {Brief}
  40. 5.14.  ID-1
  41. 5.15.  D-2
  42. 5.16.  StorageTek Helical {Brief}
  43. 5.17.  Optical {brief}
  44. 5.18.  D-6 {brief}
  45. 5.19.  D-3 {brief}
  46.  
  47. 6.     Disk
  48. 6.1.   CAV, ZCAV and CLV
  49. 6.2.   Optical {Brief}
  50. 6.2.1. CD-ROM
  51. 6.2.2. WORM {brief}
  52. 6.2.3. Erasable
  53. 6.2.3.1. Magneto-Optical Physics
  54. 6.2.3.2. Magneto-optical, 5.25-inch
  55. 6.2.3.3. Magneto-optical ZCAV, 5.25-inch
  56. 6.2.3.4. HP Corsair {Brief, New}
  57. 6.2.3.5. Maxoptix T4-1300
  58. 6.2.3.6. Asaca HSMO {Brief}
  59. 6.2.3.7. Other Multi-beam MO {None}
  60. 6.2.3.8. 3.5-inch MO {Brief, New}
  61. 6.2.3.9. Nikon 12-inch MO {Brief}
  62. 6.2.3.10. Sony 12-inch MO {Brief,New}
  63. 6.2.3.11. NEC 12-inch MO {Brief,New}
  64. 6.2.3.12. Electron-Trapping {None}
  65. 6.2.4. Dual Function {None}
  66. 6.2.4.1. IBM {None}
  67. 6.3.   Magnetic
  68. 6.3.1. 5.25-inch
  69. 6.3.1.1. Seagate
  70. 6.3.2. 3.5-inch
  71. 6.3.2.1. IBM
  72. 6.3.3. Bernouli {None}
  73. 6.3.4. Floptical {Brief}
  74. 6.3.5. Mainframe {Brief}
  75. 6.4.   Other
  76. 6.4.1. Holographic Storage Products {Brief}
  77.  
  78. 7.     RAID {Full}
  79. 7.1.   RAID Levels
  80. 7.2.   RAID-6
  81. 7.3.   John O'Brien and RAID-7
  82. 7.4.   RAID Papers
  83. 7.5.   R-Squared {Brief}
  84. 7.6.   Sun {Brief}
  85. 7.7.   the RAIDbook {Brief,New}
  86. 7.8.   Software Striping {Brief}
  87. 7.9.   RAID Vendors {New}
  88.  
  89. 8.     Solid State Disk (SSD) Frequently Asked Questions (FAQ)
  90.  
  91. 9.     Other Devices
  92. 9.1.   SyQuest Removable Cartridge hard Drives
  93. 9.2.   Kalok removable cartridge hard drives
  94.  
  95. 10.    RAIT (Redundant Arrays of Inexpensive Tape)
  96.  
  97. 11.    RAOT (Redundant Arrays of Other Things :-)
  98.  
  99.  
  100.         Many items merely identified, not described.
  101.  
  102.         Last updated: 95/2/12
  103.  
  104.         Most recent changes:
  105.         Tape Arrays
  106.         ***long list of RAID vendors***
  107.         IBM 10.8 GB 3.5" HD
  108.         (part 2)
  109.         list of backup vendors
  110.         ADSM & ARCserve
  111.         ***improved HSM -- includes long list of vendors***
  112.         Maxoptix & Qualstar autochangers
  113.         contacts for mass storage conferences
  114.  
  115.         comp.arch.storage:
  116.                 Storage system issues, both software and hardware
  117.  
  118.  
  119. ------------------------------
  120. Subject: [1] Editor's Note
  121. From: Editor's Note
  122.  
  123. I took over the maintenance of the C.A.S FAQ from its originator, Joe
  124. Stith (stith@fnal.gov, Fermi National Accelerator Laboratory, at the
  125. time), in July '94. I have begun additions and edits of my own. It
  126. should be available on the various FAQ servers. Apologies for the
  127. under-construction formatting and lack of better referencing.
  128.  
  129. I will add as my expertise and time allows and will include
  130. submissions sent to me (Rod Van Meter, rdv@alumni.caltech.edu) and
  131. information put into the newsgroup by others.  Yes, some of the
  132. submittals are from vendors (including me, see the disclaimer).  If
  133. you post to the newsgroup and find yourself quoted in this FAQ but
  134. wish to be removed, please let me know.
  135.  
  136. There is more information in my (still primitive) WWW version of the
  137. FAQ, including more commercial info. It is temporarily available at
  138. http://alumni.caltech.edu/~rdv/comp-arch-storage/FAQ-1.html, but this
  139. is probably not a good permanent home for it (volunteers?). I have
  140. also started working on a Japanese translation available there (only
  141. about 10% complete). There is also a good group of FAQs (including
  142. this one) stored at http://www.cis.ohio-state.edu/hypertext/faq/;
  143. prettier and easier to use but with only the info I actually post.
  144.  
  145. The size of these FAQs is getting out of hand; I'm open to suggestions
  146. on material that doesn't really belong in a FAQ or areas where I'm
  147. simply too verbose (I may reduce the DLT info since there is now a
  148. separate FAQ).
  149.  
  150. SHMO: when you see this, it means "Somebody Help Me Out!" I'm actively
  151. soliciting information on this topic.
  152.  
  153. See the copyright notice near the end.
  154.  
  155. ------------------------------
  156. Subject: [2] Disclaimer
  157. From: Disclaimer
  158.  
  159. I work for ASACA, which makes Metrum's robotics and makes a 12
  160. MB/sec. magneto-optical disk drive, and resells AMASS in Japan. This
  161. information is included so you can identify my bias. Obviously the
  162. things that I know the most about are the best-represented. I attempt
  163. to be as impartial as possible; if you have complaints about my
  164. fairness, let me know. None of this should in any way be construed as
  165. the official opinions of ASACA, and may not even represent MY
  166. opinions.
  167.  
  168. ------------------------------
  169. Subject: [3] Original Editor's notes
  170. From: Original Editor's notes
  171.  
  172. I believe a reference would be useful and I am willing to pull
  173. it together...
  174.  
  175. I have included the original call for votes and will go through that 
  176. list for other ideas to include.
  177.  
  178. I will also format this for sending to news.answers, misc.answers, 
  179. and comp.answers.
  180.  
  181. As I am writing this, "{None}" indicates I have not written anything 
  182. for it yet, {Full} indicates it is OK, while {Brief} indicates somewhere in 
  183. the middle.
  184.  
  185. {New} indicates some new information has been provided.
  186.  
  187. =========DISCLAIMER=====
  188.  
  189.         This information is believed to be reasonably accurate although I do 
  190. not verify every submission.  No legal liability is assumed.  See full 
  191. disclaimer at end.
  192.  
  193. ------------------------------
  194. Subject: [4] Truly Frequently Asked Questions
  195. From: Truly Frequently Asked Questions
  196.  
  197.  
  198. Also see the miscellaneous section near the end of part 2 of the FAQ.
  199.  
  200. * How do I connect X to Y?
  201.  
  202. Try asking in the appropriate comp.periphs.x or comp.sys.y groups.
  203.  
  204. * What about the jumper settings for my Yoyodyne 4000?
  205.  
  206. Try asking in the appropriate comp.periphs.yoyodyne group.  This group
  207. attempts to keep the discussion at a higher level.
  208.  
  209. * Can somebody recommend a PC or Unix backup package? (SHMO)
  210.  
  211. The Aug. '94 issue of PC World has an article covering PC tape
  212. drives (mostly QIC), and covers backup software to some extent as
  213. well. Try asking this question in the PC-related newsgroups.
  214.  
  215. I've started adding a list of backup software to part 2 of this FAQ,
  216. though it's not very complete yet.
  217.  
  218. * What about DAT/DLT/8mm/...?
  219.  
  220. Covered in the sections on tape drives & media. There is also a
  221. DLT-specific FAQ maintained by a guy from DEC posted occassionally
  222. here.
  223.  
  224. * Does anybody have the phone number of...? (SHMO)
  225.     
  226. Anybody keeping a list of the phone numbers people ask about
  227. frequently? I don't have one.
  228.  
  229. For the WWW-enabled, check out
  230. http://www-atp.llnl.gov/atp/comp-comm.html.
  231.  
  232. * What about RAID7?
  233.  
  234. See the description under RAID arrays; NOT a popular topic around
  235. here.
  236.  
  237. * MTBF?
  238.  
  239. This topic is responsible for generating the most heat in this group.
  240. There are a few sentences about it in part 2 of the FAQ, but I'm not
  241. qualified to write this section (and/or not willing to suffer the
  242. public humiliation :-).
  243.  
  244. ------------------------------
  245. Subject: [5] Tape
  246. From: Tape
  247. (No compression added in calculations unless specified otherwise)
  248.  
  249. ------------------------------
  250. Subject: [5.1] Cartridge vs Cassette
  251. From: Tape
  252. Cartridge has only one reel (i.e.  3480, DLT).  Cassettes have two
  253. reels (i.e., 8mm, 4mm, 19mm, VHS) and may not need to be rewound to
  254. dismount.
  255.  
  256. ------------------------------
  257. Subject: [5.2] Longitudinal
  258. From: Tape
  259. have heads that write bit streams that are parallel to the edge of 
  260. the tape.
  261.  
  262. ------------------------------
  263. Subject: [5.3] Serpentine
  264. From: Tape
  265. are longitudinal that write the full length of the tape, then turn 
  266. around and write the length of the tape in the opposite direction with the 
  267. heads in a slightly different position.  This process may repeat many times.
  268.  
  269. ------------------------------
  270. Subject: [5.4] Helical Scan
  271. From: Tape
  272. are like your VCR with a rotating head mounted at an angle writing 
  273. "swipes" at an angle not parallel to the edge of the tape.  The tape is moved 
  274. only slightly between swipes.  Two or so longitudinal tracks may also be used 
  275. for fast positioning purposes.
  276.  
  277. ------------------------------
  278. Subject: [5.5] 9-track {brief}
  279. From: Tape
  280. The old 2400 foot round reel of tape written at 800, 1600, or 6250 BPI.
  281.  
  282. ------------------------------
  283. Subject: [5.6] 3480/3490/3490E {brief}
  284. From: Tape
  285.  
  286.         Square cartridge:
  287.         serpentine
  288.                 IBM 3480 - 18 track - 200 MB/cartridge, 1984
  289.                 IBM 3490 - Smaller packaging, IDRC standard, 1989
  290.                         reports that it is a 3480 in ID string
  291.                 IBM 3490E - 36 track, double length - 800 MB/cartridge 
  292.         native, 1992
  293.             IDRC data compression is also available.
  294.  
  295. These drives have traditionally come from the mainframe vendors --
  296. IBM, Fujitsu, Storage Tek, etc. They were originally very large
  297. objects, with vacuum columns and mainframe interfaces, the size of
  298. large filing cabinets.
  299.  
  300. However, recently they have become available in smaller packages, 19"
  301. rack mount or table top, and with interfaces such as SCSI.
  302.  
  303. Here's one from last year that I recently dug out of some old mail:
  304.  
  305. IBM has just made generally available the following:
  306.   3490E Model E SCSI tape drive
  307.   fast/wide differential
  308.   IDRC compression
  309.   3 MB/sec at the tape head, 6.5 MB/sec with compression
  310.   approx 800 MB tape capacity with out compression, 2.4 GB with a 3:1 comp
  311.   7 tape CSL(cartridge stack loader)
  312.   Desk top and rack mount
  313.   List $27,000
  314.  
  315. wener@vnet.ibm.com, 94/4/11
  316.  
  317. There's also a standalone drive with a small autoloader from a company
  318. called Overland Data. Their L490e is a win because it reads and writes
  319. both 18 and 36 track tapes. At $20K it's reasonably priced. For the
  320. www-enabled, see http://www.ovrland.com/~odisales.
  321. (tdowty@ovrland.com, 94/12/21)
  322.  
  323. ------------------------------
  324. Subject: [5.6.1] New IBM Tape (NTP)
  325. From: Tape
  326.  
  327. Unannounced product from IBM that has been demonstrated at mass
  328. storage conferences. Same form factor as 3480, serpentine. 9 MB/sec.,
  329. 10GB/cart. Bare drive should retail ~$35K, 1Q95. Two SCSI interfaces?
  330. Robotics also planned. (garyblk@aera.com, 09/30/94)
  331.  
  332. ------------------------------
  333. Subject: [5.7] QIC {brief}
  334. From: Tape
  335.         Quarter Inch Cartridge.  Primarily low-end (ie, PC) available from 
  336. multiple vendors but 3M is pushing it into midrange market with estimates of 
  337. 100 Gigabytes per cartridge by 1999. Two-reel cassette.
  338.  
  339. In Dec '94, 3M, Sony, HP and others announced a new format, 2.3 times
  340. the capacity, available mid-1995. The cartridge and drive mechanics
  341. apparently change. It will be .315 inch tape instead of .25, with 750
  342. feet of media in a cartridge. (rdv, 94/12/16)
  343.  
  344. ------------------------------
  345. Subject: [5.8] 4mm {brief}
  346. From: Tape
  347.         Multiple vendors.
  348.         Initially for home audio market.
  349.         Original product held 1.3 GB on one 60 meter tape at about 180 
  350. KB/second.  Search speeds run about 200 times nominal speed.
  351.         DDS (Digital Data Storage) format has overtaken the DATA/DAT format.
  352.     Two-reel cassette.
  353.  
  354. ------------------------------
  355. Subject: [5.9] 8mm {brief}
  356. From: Tape
  357.  
  358. Sony developed transport designed initially for home video market.
  359. Exabyte has U.S. rights with Kubota qualifying as a second source when
  360. needed.
  361.  
  362. EXB 8200 model holds 2.3 Gigabytes per tape at 220 KB/sec
  363.  
  364. EXB 8500 model holds 5 Gigabytes per tape at 500 KB/sec
  365.  
  366. Search speeds of the 8200 is dismal, but is significantly improved in
  367. later models.  Compression and half-height (standard is full-height
  368. 5.25-inch) features are also available.
  369.  
  370. ------------------------------
  371. Subject: [5.9.1] Mammoth {Brief,New}
  372. From: Tape
  373.  
  374. Mammoth is the new Exabyte drive. It reportedly holds 20 GB
  375. uncompressed per cartridge, with a transfer rate of 3 MB/s. Exabyte
  376. has been touting this drive since at least April '93. It is finally
  377. due out "soon". (rdv,95/1/13)
  378.  
  379. ------------------------------
  380. Subject: [5.10] DEC/DLT {full}
  381. From: Tape
  382.  
  383. Digital Linear Tape (DLT)
  384. TZ87 (DLT2000) - 10 GB native per cartridge
  385. See also robotics (DLT2700 is 7 tape library)
  386. Ref: Digital's Customer Update, March 14, 1994
  387. Serpentine recording.
  388.  
  389. Developed from DEC's TK50 & TK70 technology. The unit that developed
  390. this was sold to Quantum.
  391.  
  392. DLT is the new tape technology getting the most air time around here.
  393. There is also a DLT-specific FAQ maintained by a guy from Quantum.
  394.  
  395. From the newsgroup:
  396.  
  397. Tape uses a special hook for load/unload mechanism.
  398.  
  399. DEC is the initial vendor, but other vendors are re-selling them 
  400. (sort of like TTI's reselling of the Exabyte 8mm tape drive).
  401.  
  402. Transfer rate of 2.5 MB/sec, but that assumes 2:1 compression, so it
  403. is 1.25 MB/Sec native.  Likewise the 20 GB cartridge is 10 GB native.
  404.  
  405. DLT4000 ($2K upgrade from DLT2000) soon (9/94?)  Double the capacity.
  406. Some agreement with Cypher. Still not shipping in quantity, 1/95.
  407.  
  408. Can be used on NON-DEC systems (standard SCSI interface).
  409.  
  410. One report of a batch of tapes that were "too wide".
  411.  
  412. >michelotto@mvxpd5.pd.infn.it (Michele Michelotto) wrote:
  413. >You're comparing the top QIC format with the rather new DLT 
  414. tecnology.  What is so special about DLT? I'll try to answer:
  415.  
  416. >1. Serpentine format means that there are several parallel tracks.
  417. the head goes down the first track and comes back down the second one
  418. etc.  If I need to access a file at the end of the "logical tape" and
  419. the drive knows that it is at the beginning of the 52th track it goes
  420. directly to the 52th track and start seeking on it. So the worst case
  421. access time is close to the rewind time (about 100 sec) the average
  422. access time is about (60 sec).
  423.  
  424. >2. the unit I tested was a 6 GB/cartridge (no compression) 700
  425. kB/sec. the cartridge had 112 tracks but since the drives use two
  426. heads, it could access track N and track N+54 together. So it looked
  427. like a 54 track cartridge. Now it's very easy to put 4 (or 8) heads in
  428. the drive and double (or multiply by 4) the transfer speed while
  429. maintaing the backward compatibility (with 8 head you use only head #1
  430. and #5 to emulate a 2 heads unit).
  431.  
  432. >3. DEC is selling to the OEM a DLT4000 unit with 20GB uncompressed
  433. (40GB with compression). [may be available 9/94].  [Thinner, longer
  434. tape plus somewhat higher density and slightly more efficient
  435. packing/blocking]
  436.  
  437. DLT cost $5K US for 20GB drive, $10K for a 140GB stacker, $150K for a
  438. 3.2 TB robot.
  439.  
  440. Autochangers are made by DEC, Odetics (available through EMASS) and
  441. Metrum.
  442.  
  443. Piping tar into dd, with a bs=64k can increase your speed.
  444.  
  445. The drives have a tape mark directory that is used for a SPACE
  446. command, but if you just SPACE 1 FILEMARK multiple times, efficiency
  447. is poor (and is the fault of the software implementation as it should
  448. "SPACE n FILEMARKS").
  449.  
  450. Submitted (approved?) ANSI standard, but that does not mean anyone
  451. other that DEC is doing anything more than OEM'ing it.
  452.  
  453. ------------------------------
  454. Subject: [5.10.0.1] DLT4000 (From DEC)
  455. From: Tape
  456.  
  457.  
  458. Streaming tape drive
  459. Quoted 40 GB includes 2:1 compression
  460. Quoted 3.0 MB/sec includes 2:1 compression
  461. Extended 5.25-inch form factor
  462. SCSI-2 interface, either single-ended or differential, 
  463. optional fast SCSI.
  464. Compression is DLZ (Digital Lempel-Ziv)
  465. "...a head life of 10,000 hours (compared to 2,000 hours for 
  466. other tape products), a recommended average of 10,000 read/writes per 
  467. cartridge, and an MTBF of 80,000 hours."
  468. Search speed averages 68 seconds
  469. Repositioning time 1.3 seconds
  470. Hard error rate: 1 x 10**17 bits read
  471. Undetected error rate: 1 x 10**30 bits read
  472. Serial serpentine (128 tracks), variable block
  473. bits/inch: 82,000
  474. Tracks/inch: 256
  475. Recording media: CompacTape (tm) IV
  476. 0.5 in x 1,700 ft x .3mi thick
  477. Cartridge: 4.1 x 4.1 x 1 inch
  478. shelf life: 10 years
  479. Height: 3.235 in, width: 5.7 in, length: 9 in
  480. Reliability: 80,000 MTBF
  481. Media reliability: 500,000 passes in start/stop mode (or an 
  482. average of 10,000 uses/cartridge)
  483.  
  484.  
  485. ------------------------------
  486. Subject: [5.10.0.2] DLT2700 (from DEC)
  487. From: Tape
  488.  
  489. random access, seven tape, 1 drive library
  490. rack mountable 8-inch form factor
  491. includes operator control pannel and LED indicators
  492. 400,000 mean mechanical cycles before failure
  493. uses a 7 cartridge magazine.
  494. Magazine "precheck": 75 seconds per magazine
  495. Cartridge load (max): 28 seconds
  496. Cartridge unload (max): 30 seconds
  497. SCSI command set for robotic commands
  498. Subsystem reliability: 30,000 power-on hours
  499. Height: 10.4 in, width: 8.7 in, length: 27 in
  500. weight: 65 lbs
  501.  
  502.  
  503. ------------------------------
  504. Subject: [5.10.0.3] DLT2000 (from DEC)
  505. From: Tape
  506.  
  507. CompacTape (tm) III
  508. Capacity: 20 GB/cartridge
  509.         (assumes 2:1 compression)
  510. 1.25 MB/sec.
  511.  
  512.  
  513.         rdv@alumni.caltech.edu (Rodney D. Van Meter), vanepp@fraser.sfu.ca 
  514. (Peter Van Epp), michelotto@mvxpd5.pd.infn.it, jeff@wsm.com, 
  515. rrohbeck@ufhis.enet
  516.  
  517.  
  518. ------------------------------
  519. Subject: [5.11] Metrum VHS {brief}
  520. From: Tape
  521.  
  522.         Metrum, 800/METRUM-2 (+1-303-773-4700)
  523.         Drive: RSP-2150, 2MB/sec sustained, 4MB/Sec burst
  524.         ST-120 cartridge holds 14.5 GB
  525.         ST-160 cartridge holds 18 GB
  526.         See also robotics
  527.  
  528.  
  529. ------------------------------
  530. Subject: [5.12] VCR VHS
  531. From: Tape
  532.  
  533. This appeared recently in the newsgroup, but I don't know anything
  534. about it. This is the widget that takes data in one end and spits out
  535. a video signal that you can pipe into your home VCR to use your it for
  536. data storage. It's only $350, but, for those of us in the U.S. and
  537. Japan, it doesn't work for NTSC VCRs.
  538.  
  539. From: simakov@glas.apc.org
  540. Subject: VTS Tech Specifications for Users
  541. Date: Mon Nov 28 09:24:29 PST 1994
  542. X-Gateway: notes@igc.apc.org
  543.  
  544. Having received a lot of questions from different users of VTS 1020,
  545. I'd like to answer them giving short specifications of this unit.
  546. 1. CAPACITY: 4 GB Compressed / 2 GB Uncompressed on one E-180 cassette.
  547.              The amount of data grows according to the tape length.
  548. 2. SPEED:    100 KB/sec for PC/AT 286-16 Mhz
  549.              200 KB/sec for PC/AT 386-33 Mhz etc.
  550. 3. SOFTWARE: The current version is for DOS. Windows support-DOS Window.
  551.              Read/Write verification is provided.
  552. 4. VIDEO:    PAL/SECAM System, VHS Tape
  553.  
  554.  
  555. ------------------------------
  556. Subject: [5.13] 19MM (D1 and D2) {Brief}
  557. From: Tape
  558.  
  559. 19mm is 3/4 inch helical scan tape.  Two varieties exist, D1 and D2.
  560. Both originated from broadcast and/or data recorder applications,
  561. where the data/signal was analog in nature.  They have been modified
  562. for digital use, with error correcting capabilities added.
  563.  
  564. Data rates are in the 8-45 MByte/sec range, with storage capacities
  565. in the 25-175 GB range in physically different size cartridges with
  566. different length tapes, but all fitting into the same tape drive unit.
  567.  
  568. ------------------------------
  569. Subject: [5.14] ID-1
  570. From: Tape
  571.  
  572. SHMO: I'd like to hear more of people's experiences using these
  573. things.
  574.  
  575. Note: I would recommend you talk to people who've used these things
  576. before buying one!
  577.  
  578. DataTape (Pasadena, CA, formerly a division of Kodak), I believe, has
  579. an ID1 system available, with a HiPPI interface.
  580.  
  581. Sony makes several models of a D-1-based data drive; the format is
  582. generally referred to as ID-1. It comes in different models, with
  583. equivalent price tags, that run from 8 to 32 MB/sec. The original
  584. machine had a VME interface that was extremely low-level ("any lower
  585. and you'd have to turn the spindles by hand," someone said); now there
  586. is a HiPPI interface available from a company called TriPlex. I
  587. understand the HiPPI interface also adds another layer of ECC to
  588. improve the otherwise abyssmal error rate (10^-10 becomes ???). Sony
  589. is also supposed to be doing their own SCSI and HiPPI interfaces. I
  590. don't know the status nor if they are compatible with tapes from the
  591. TriPlex unit (I suspect not).
  592.  
  593. These are very expensive -- $100K+, but for people with the need,
  594. they've got the speed.
  595.  
  596.         (stephens@access.digex.net, (John Stephens),
  597.     rdv@alumni.caltech.edu (Rod Van Meter))
  598.  
  599. ------------------------------
  600. Subject: [5.15] D-2
  601. From: Tape
  602.  
  603. Ampex (and Sony??) support D2.  Data rates are in the 15 MByte/sec
  604. range.
  605.  
  606. The Ampex tape transport and head system were sold through E-Systems
  607. (EMASS), who built the storage controller and sold it as the ER-90 and
  608. coupled it with Odetics robots. Ampex now makes their own interface
  609. for the unit, sold as the DST. They also make their own very fast
  610. robotics.
  611.  
  612. The ER-90 is popular with the oil crowd. I don't know if the tapes are
  613. interchangeable with the DST.
  614.  
  615. (rdv, 12/94)
  616.  
  617. DD-2  (19mm Data D-2 Format)
  618.  
  619. Ampex DST General:
  620.  
  621. 3 cartridge (cassette) sizes - 25, 75, 165 gigabytes (uncompressed).
  622. 15 megabyte/sec. sustained (20 megabyte/sec. burst) transfer rate (per
  623. drive).  Up to 800 megabyte/sec. search speed (per drive).  Smart DD-2
  624. format includes partitioning and system zones to maximize storage
  625. efficiency and speed data access.  3 layers of Reed-Solomon error
  626. correction, with read-after-write verification and automatic rewrite
  627. yield error rate of 1 in 10E15 bits read.  Drive(s) dual ported SCSI-2
  628. (16 bit fast, differential).
  629.  
  630. DST 310 Tape Drive:
  631.  
  632. All 3 cartridge (cassette) sizes supported - 25, 75, 165 gigabytes
  633. (uncompressed).  Rack mount or table top configurations.  Single unit
  634. price: $120K.
  635.  
  636. Ampex Corporation
  637. 401 Broadway, M.S. 3-46
  638. Redwood City, CA 94063-3199
  639. Inquiry:  415-367-2982
  640. Facsimile:  415-367-3850
  641. Internet:  dst_mktg@ampex.com
  642.  
  643. (see also Ampex under autochangers -- they make their own for this
  644. tape drive)
  645.  
  646. (pete_zakit@ampex.com, 94/12/23)
  647.  
  648. ------------------------------
  649. Subject: [5.16] StorageTek Helical {Brief}
  650. From: Tape
  651.  
  652. Storage Tek has been working on a project called Redwood for a number
  653. of years. The cartridge will be 3480 form-factor, to protect users'
  654. investment in Storage Tek robotics. Capacity of 20 GB/cartridge,
  655. transfer rates of 15 MB/sec.(? unconfirmed). Due out ?end of 94?
  656. Probably expensive. (rdv@alumni.caltech.edu (Rod Van Meter))
  657.  
  658. The ESCON interface is in betatest; SCSI fast & wide due out soon.
  659. (martin@viper.desy.de, 94/12/19)
  660.  
  661. ------------------------------
  662. Subject: [5.17] Optical {brief}
  663. From: Tape
  664.  
  665. A company called Creo, from Canada I believe, makes a large tape drive
  666. that uses ?1"? tape and gets a terabyte of data on a $10,000 reel.
  667. The time to read the media (media granularity) is huge; at 3
  668. MB/sec. it takes almost four days to read a tape!
  669.  
  670. ------------------------------
  671. Subject: [5.18] D-6 {brief}
  672. From: Tape
  673.  
  674. From Toshiba & BTS, originally designed as a full-speed (~150MB/sec.)
  675. digital HDTV VTR. A model with a HiPPI interface is supposed to be
  676. available end of 94. The video version is priced at US$300K+. I
  677. believe the tape transport and cartridge are the same as for D-2,
  678. though the tape material is different.
  679.  
  680. (4/94, rdv)
  681.  
  682. ------------------------------
  683. Subject: [5.19] D-3 {brief}
  684. From: Tape
  685.  
  686. From Martin Marrieta, mentioned here on the net recently. Very fast
  687. (10.8 MB/sec.), ~$125K. General availability scheduled for 11/14/94
  688. (9/20/94, garyblk@aera.com). I believe the cartridge is the same as
  689. Betacam, so look for the broadcast autochanger companies here (rdv).
  690.  
  691. ------------------------------
  692. Subject: [6] Disk
  693. From: Disk
  694.  
  695. ------------------------------
  696. Subject: [6.1] CAV, ZCAV and CLV
  697. From: Disk
  698.  
  699. Many disks (hard, floppy and optical) run in CAV (Constant Angular
  700. Velocity) mode. In this case, the disk spins at a constant rate, and
  701. there are the same number of sectors per track on inner and outer
  702. tracks. This means that the bits are farther apart on the outer
  703. tracks, potentially wasting space. The transfer rate is
  704. constant, as the number of bits/track is same and the time/track
  705. doesn't vary.
  706.  
  707. CDs (and video laser disks, I believe) and early Macintosh floppies
  708. run at Constant Linear Velocity (CLV). That is, the bits are all
  709. roughly the same size, and the rotations per minute of the drive is
  710. adjust as the head moves in and out. This gives the best areal
  711. density of bits, at the sacrifice of seek speed, since every seek
  712. requires an adjustment of the rotation speed. The transfer rate is
  713. constant, as the size and spacing of bits is constant and the linear
  714. velocity is constant.
  715.  
  716. The current rage is ZCAV, Zoned Constant Angular Velocity. Most modern
  717. SCSI disks have this feature, and the newest MO drives do, as well.
  718. There are a number of zones defined on the disk. The number of sectors
  719. per track is different in each zone. Thus, the data is packed more
  720. densely than normal CAV, but seek speed is not sacrificed. Another
  721. effect of ZCAV is that the media transfer rate varies depending on the
  722. head position, because the time/track is constant and the bits/track
  723. vary; for example, the Seagate ST12450W Barracuda drive varies from 68
  724. to 113 Mbits/sec, almost a factor of two different.
  725.  
  726. ------------------------------
  727. Subject: [6.2] Optical {Brief}
  728. From: Disk
  729.         See also Robotics section for library options.
  730.         Slower than magnetic disks (in general)
  731.  
  732. ------------------------------
  733. Subject: [6.2.1] CD-ROM
  734. From: Disk
  735. Historically produced off-site at significant first-copy cost but 
  736. small cost for high volumes.  Now on-site 'authoring' systems are available.  
  737. Standard formats are available. Ads have been posted to the net
  738. offering services for as little as US$60 to convert a tape to CD.
  739.  
  740. ------------------------------
  741. Subject: [6.2.2] WORM {brief}
  742. From: Disk
  743. Write-Once-Read-Many
  744. Standards are less firm between vendors.
  745.  
  746. ------------------------------
  747. Subject: [6.2.3] Erasable
  748. From: Disk
  749. Better standards than WORM
  750.  
  751. ------------------------------
  752. Subject: [6.2.3.1] Magneto-Optical Physics
  753. From: Disk
  754.  
  755. Magneto-optical disks are plastic or glass disks coated with a
  756. compound (often TbFeCo) that has special properties. The disk is read
  757. by shining a low-intensity laser (originally infrared, but experiments
  758. are being conducted all the way up to blue, I believe; the shorter the
  759. wavelength the higher the possible density, all things being equal
  760. (which they never are)) onto the media and examining the polarization
  761. of the reflected light. To write, a higher-intensity laser is used to
  762. heat the material up to its Curie point, where it becomes susceptible
  763. to a magnetic field. When the media cools again, its state is
  764. "frozen". The polarity of the reflected light during a read depends on
  765. the polarity of the magnetic field under which the media was last
  766. cooled. Once it has cooled it is no longer suceptible to magnetic
  767. fields. Thus, it can be compared in a sense to paleomagnetism.
  768.  
  769. ------------------------------
  770. Subject: [6.2.3.2] Magneto-optical, 5.25-inch
  771. From: Disk
  772. Same number of sectors on each track whether or not track is near 
  773. center or outer edge.  640 MB. Made by IBM, HP, Sony, Ricoh, others?
  774.  
  775. ------------------------------
  776. Subject: [6.2.3.3] Magneto-optical ZCAV, 5.25-inch
  777. From: Disk
  778.  
  779.         Zoned constant angular velocity - more sectors on outer tracks.
  780.         GB: 1
  781.         ECMA standard 183 going through ISO Fast Track.
  782.         ADSTAR demonstrated (6/93), San Jose, CA, 408/256-7895.
  783.  
  784.  
  785. ------------------------------
  786. Subject: [6.2.3.4] HP Corsair {Brief, New}
  787. From: Disk
  788.  
  789. 1.3 GB on a double-sided cartridge.
  790.  
  791. See also under MO autochangers in part 2.
  792.  
  793. ------------------------------
  794. Subject: [6.2.3.5] Maxoptix T4-1300
  795. From: Disk
  796.  
  797. Does 1.3, 1.0 (read only) and 650 MB media. Max sustained read 2.0
  798. MB/sec.
  799.  
  800. See also under MO autochangers in part 2 for contact info.
  801.  
  802. (rdv, 95/02/14)
  803.  
  804. ------------------------------
  805. Subject: [6.2.3.6] Asaca HSMO {Brief}
  806. From: Disk
  807.  
  808. My company (Asaca) makes a 12.24 MB/sec. MO drive that uses custom
  809. media and two four-beam heads in parallel to increase the transfer
  810. speed. Expensive.
  811.  
  812. Call John Clemens in our L.A. office, (310)827-7144
  813.  
  814. ------------------------------
  815. Subject: [6.2.3.7] Other Multi-beam MO {None}
  816. From: Disk
  817.  
  818. ------------------------------
  819. Subject: [6.2.3.8] 3.5-inch MO {Brief, New}
  820. From: Disk
  821.  
  822. Generally looks like a slightly overweight floppy. All current ones
  823. are single-sided.
  824.  
  825. First generation 3.5 MO was 128 MB on a cartridge.
  826.  
  827. Second generation devices (available now) are 230 MB.
  828.  
  829. Third generation (due out this year?) will be 650 MB.
  830.  
  831. If they bring the drive price down, could displace floppies as the
  832. basic shirtpocket-transportable medium.
  833.  
  834. (rdv,95/1/20)
  835.  
  836. ------------------------------
  837. Subject: [6.2.3.9] Nikon 12-inch MO {Brief}
  838. From: Disk
  839.  
  840. Holds 8 GB on a disk, with a transfer rate of ?>1MB/s.
  841.  
  842. ------------------------------
  843. Subject: [6.2.3.10] Sony 12-inch MO {Brief,New}
  844. From: Disk
  845.  
  846. Sony also makes a 12" MO. 3.2 GB? (rdv,95/2/7)
  847.  
  848. ------------------------------
  849. Subject: [6.2.3.11] NEC 12-inch MO {Brief,New}
  850. From: Disk
  851.  
  852. NEC also makes a 12" MO. (rdv,95/2/7)
  853.  
  854. ------------------------------
  855. Subject: [6.2.3.12] Electron-Trapping {None}
  856. From: Disk
  857.  
  858. ------------------------------
  859. Subject: [6.2.4] Dual Function {None}
  860. From: Disk
  861.  
  862. Capable of using both WORM and Erasable media. Some do the WORM in
  863. firmware -- the media is really rewritable. Others do true WORM.
  864.  
  865. ------------------------------
  866. Subject: [6.2.4.1] IBM {None}
  867. From: Disk
  868.  
  869. ------------------------------
  870. Subject: [6.3] Magnetic
  871. From: Disk
  872.  
  873. ------------------------------
  874. Subject: [6.3.1] 5.25-inch
  875. From: Disk
  876.  
  877. ------------------------------
  878. Subject: [6.3.1.1] Seagate
  879. From: Disk
  880.  
  881. Seagate's Elite 9 is 9GB -- reports here of backordering, others of
  882. availability. Micropolis due out with an 8GB soon? (94/9/1)
  883.  
  884. The fastest (in sustained transfer rate) known 5.25" disk drive is the
  885. ST12450W2HP 1.78GB Barracuda drive from Seagate. The Barracuda family
  886. is large, so pay attention to the model number! It runs at 68-113
  887. Mbits/sec., depending on head position (it's ZCAV). Assuming that data
  888. rate is pre-format, and subtracting 20% for the format overhead, that
  889. would be a sustained rate of 6.8-11 MB/sec. Of course, your mileage
  890. WILL vary according to transfer size, locality, etc. (rdv,95/2/7)
  891.  
  892. ------------------------------
  893. Subject: [6.3.2] 3.5-inch
  894. From: Disk
  895.  
  896. ------------------------------
  897. Subject: [6.3.2.1] IBM
  898. From: Disk
  899.  
  900. The IBM DCMS-310800 Ultrastar2 is 10.8 GB (1GB=10^9) after format, and
  901. its sustained rate is fast -- 8.4-14.2 MB/sec (presumably pre-format,
  902. so subtract 20%). Only 5400 rpm with an 8.9 msec seek time, so
  903. middle-of-the-pack on those numbers. Fast/wide SCSI-2 interface.
  904. (rdv,95/02/14)
  905.  
  906. ------------------------------
  907. Subject: [6.3.3] Bernouli {None}
  908. From: Disk
  909.  
  910. ------------------------------
  911. Subject: [6.3.4] Floptical {Brief}
  912. From: Disk
  913.  
  914. I believe flopticals use an optical tracking mechanism to improve
  915. ordinary magnetic head positioning and therefore density.
  916.  
  917. ------------------------------
  918. Subject: [6.3.5] Mainframe {Brief}
  919. From: Disk
  920.  
  921. Mainframe disks are sometimes referred to as SLEDs (Single Large
  922. Expensive Disks). The term DASD (Direct Access Storage Device) usually
  923. refers to a mainframe disk, but is occassionally applied to any hard
  924. disk.
  925.  
  926. The WWW FAQ contains some information about mainframe CKD disks.
  927.  
  928. ------------------------------
  929. Subject: [6.4] Other
  930. From: Disk
  931.  
  932. ------------------------------
  933. Subject: [6.4.1] Holographic Storage Products {Brief}
  934. From: Disk
  935.  
  936. Tamarack Storage Devices, Inc, a spin-off from Microelectronics and 
  937. Computer Technology Corporation (MCC), is developing with Projectavision Inc. 
  938. to produce a product with ten times greater storage densities than magnetic 
  939. and 10 to 1000 times faster than floppies, tapes, and CD-ROMS.  First 
  940. products expected first quarter 1994.
  941.         (Ref: MCC Collagorations Newsletter, Volume 3, No. 1; Spring 1993)
  942.  
  943.         (stith@fnal.gov)
  944.  
  945. Also another report of experiments at Stanford recently (8/94).
  946.  
  947. ------------------------------
  948. Subject: [7] RAID {Full}
  949. From: RAID {Full}
  950.  
  951. The primary functions of a disk array is to increase data 
  952. availability, to increase total storage capacity, and to privide performance 
  953. flexibility by selectively spreading data over multiple spindles.
  954.  
  955. Data Protection - As the number of disks on a system increases, the 
  956. likelyhood of one failing increases.  Thus, a disk array should be immune 
  957. from a single disk drive crash.  Disk mirroring (keeping an exact copy of a 
  958. one disk on another) is the simplest, but requires twice the disk capacity 
  959. (and associated cost).  Encoding schemes can be used to reduce the redundancy 
  960. required to lower ratios.
  961.  
  962. Storage Capacity is increased by placing many smaller form factor 
  963. (5.25 and 3.5-inch) drives onto an intellegent controller which makes all the 
  964. drives appear as one drive to the computer system.
  965.  
  966. Performance can be increased by spreading data over spindles and 
  967. performing operations in parallel which allows multiple drives to be working 
  968. on a single transfer request.
  969.  
  970. ------------------------------
  971. Subject: [7.1] RAID Levels
  972. From: RAID {Full}
  973.  
  974. The original taxonomy of RAID levels was published in the SIGMOD paper
  975. by Garth Gibson and Randy Katz in 1988 (see below). The taxonomy
  976. roughly classifies RAID architectures according to the layout of data
  977. and parity information on disks. It is NOT gospel and does NOT cover
  978. every possible architecture (it has been pointed out here that that
  979. would require an N-tuple showing data block addressing, number and
  980. types of parity and ECC information, etc.), but when used properly
  981. provides a vocabulary and establishes a framework for discussion.
  982.  
  983.  
  984.         Raid Level 0 - Striping - Data is segmented and split onto multiple 
  985. spindles.
  986.                 Short Reads - Easily handles multiple simultaneous reads
  987.                 Long Reads - Single operation can be split and processed in 
  988. parallel
  989.                 Short Writes - Easily handles multiple simultaneous reads
  990.                 Long Writes - Single operation can be split and processed in 
  991. parallel
  992.                 Redundancy - None
  993.                 Cost - Good (no extra hardware)
  994.         Raid Level 1 - Mirroring - Duplicate data is kept on multiple 
  995. splindles
  996.                 Short Reads - Faster (shorter latency) since
  997.         resolution can be from any of multiple disks
  998.                 Long Reads - Faster since resolution can be from any of 
  999.         multiple disks (*)
  1000.                 Short Writes - Slower since need to write to multiple disks
  1001.                 Long Writes - Slower since need to write to multiple disks
  1002.                 Redundancy - Excellent
  1003.                 Cost - Expensive - at least double the spindle cost
  1004.         Raid Level 3 - Data protection disk - mathematical ECC type code 
  1005. calculated from multiple spindles and stored on another spindle.
  1006.                 Short Reads - Normal speed (i.e. 1x per-spindle rate)
  1007.                 Long Reads - Normal speed
  1008.                 Short Write - Slower due to re-calculating of ECC code 
  1009. (including reading from other spindles and the ECC write)
  1010.                 Long Write - slightly slower due to ECC writes, but less 
  1011. reading required than in short writes (**)
  1012.                 Redundancy - Excellent
  1013.                 Cost - only slighly more than no redundancy options
  1014.     Raid Level 4??? similar to 3, with block striping instead of byte.
  1015.         Raid Level 5 - Striping plus data protection - stripe data across 
  1016. multiple spindles (as in RAID Level 0) and have data protection calculations 
  1017. (as in RAID level 3) but don't put all the calculated figures onto one 
  1018. spindle, but spread it out.
  1019.                 Short Reads - Normal
  1020.                 Long Reads - Faster due to parallelism
  1021.                 Short Write - Slower due to ECC calculation (including 
  1022. reading and writing)
  1023.                 Long Write - slighly slower due to ECC writes (**)
  1024.                 Redundancy - Excellent
  1025.                 Cost - only slignly more than no reduncancy options
  1026.  
  1027. (* should be the same speed as a single spindle)
  1028. (** -- should be faster than a single spindle due to parallelism on
  1029. write? somebody help me out --rdv)
  1030.  
  1031.         Benefits of RAID:
  1032.                 High data availability (ie, if a single spindle crashes, no 
  1033. data is lost)
  1034.                 Increased disk connectivity per system  - since multiple 
  1035. spindles appear as one spindle to the computer system.
  1036.                 Large capacity storage in a small footprint - 
  1037.                 Flexibility through intelligent array controllers
  1038.                 Performance enhancements in some circumstances.
  1039.  
  1040.  
  1041. Streamed or Streamified RAID??? (SHMO)
  1042.  
  1043. ------------------------------
  1044. Subject: [7.2] RAID-6
  1045. From: RAID {Full}
  1046.  
  1047. A two-dimensional disk array parity scheme was described by Randy Katz,
  1048. Garth Gibson, and David Patterson (all then with UC Berkeley - Gibson is
  1049. now a professor at Carnegie Mellon University) at the 1989 IEEE Compcon
  1050. conference. This method had one parity calculated along the disk strings
  1051. and another calculated across them. This would increase the
  1052. mean-time-to-data-loss by more than 10,000 fold. I am not aware of any
  1053. implementations of this configuration.
  1054.  
  1055. Storage Technology Corp (STK - Louisville, Colorado) has described a
  1056. somewhat similar scheme for their long-delayed Iceberg disk array. This
  1057. would have a regular, orthogonal RAID 5 parity across drives along with a
  1058. Reed-Solomon encoding on another drive. This is sometimes referred to as
  1059. RAID 6 or RAID 5+. STK claims their design will allow failure of ANY TWO
  1060. drives - which is beyond the survival capabilities of standard RAID 5.
  1061.  
  1062. A RAID 5 which is 'deep' can survive failures in more than one drive so
  1063. long as it doesn't lose more than one drive per rank:
  1064.  
  1065.  
  1066.         HBA1    HBA2    HBA3    HBA4    HBA5    HBA6    HBA7    HBA8
  1067.          |       |       |       |       |       |       |       |
  1068. Rank1   Disk1   Disk2   Disk3   Disk4   Disk5   Disk6   Disk7   Disk8
  1069.          |       |       |       |       |       |       |       |
  1070. Rank2   Disk9   Disk10  Disk11  Disk12  Disk13  Disk14  Disk15  Disk16
  1071.  
  1072.         . . . . .   - etc.
  1073.  
  1074. Rank4                           .       .       .       .       Disk32
  1075.  
  1076.  
  1077. If the above is a RAID 5 then losing drives 5 & 6 will destroy data. If it
  1078. is a RAID 6 then it will not. Losing drives 3 and 12 will not disable a
  1079. RAID 5 nor a RAID 6.
  1080.  
  1081. But RAID 6 will cost more and may have slower performance for small random
  1082. writes from having to update more parity data. I think there are clearly
  1083. ways to mitigate the parity update perfomance for RAID 6 as well as RAID 5.
  1084.  
  1085. -- 
  1086.           Dick Wilmot
  1087.           Editor, Independent RAID Report
  1088.           (510) 938-7425
  1089.  
  1090.  
  1091.  
  1092. ------------------------------
  1093. Subject: [7.3] John O'Brien and RAID-7
  1094. From: RAID {Full}
  1095.  
  1096. RAID-7 is a marketting term created by Storage Computer, Inc. for what
  1097. others here have described as RAID-4 with a write cache. John O'Brien
  1098. (RAID7@world.std.com), (their marketting manager?) frequently posts
  1099. here. 
  1100.  
  1101. His claims of ~10x improvement on I/O rates for VAXes have been shown
  1102. to be poorly measured; the change in systems was not simply a
  1103. RAID-for-modern-disk swap, but included increasing the CPU power by a
  1104. factor of three and eliminating the HSC and old disk technology. He
  1105. has also made difficult-to-substantiate claims about the growth and
  1106. market success of his company relative to competitors. Thus, wise
  1107. advice would be to take everything Mr. O'Brien says with a grain of
  1108. salt (not bad advice for dealing with anyone, but especially true for
  1109. dealing with vendors).
  1110.  
  1111. The debate also appears here frequently as to whether or not you
  1112. really WANT your RAID array doing write cacheing; Unix file systems
  1113. may depend on specific ordering of writes and otherwise make
  1114. assumptions that could leave you in trouble with power or disk
  1115. failures. If write ordering is preserved, the danger is somewhat
  1116. mitigated.
  1117.  
  1118. That said, some posters here are pleased with their RAID7 arrays, and
  1119. although comp.arch.storage opinion runs prevalently against Mr.
  1120. O'Brien himself (and lately his pal Michael Willett who interestingly
  1121. is quoted here from before he worked for Storage Computer), the
  1122. possibility exists that the product is worthwhile.
  1123.  
  1124. ------------------------------
  1125. Subject: [7.4] RAID Papers
  1126. From: RAID {Full}
  1127.  
  1128. A nice collection of RAID papers was published in the Fall, 1991 issue of
  1129. _CMG Transactions_. A few more appeared in the December, 1992 _CMG
  1130. Proceedings_ and there are 3 RAID papers in the 1993 International
  1131. Symposium on Computer Architecture (Published as _Computer Architecture
  1132. News 21_, #2, May, 1993 by ACM SIGARCH.
  1133.  
  1134. (dwilmot@crl.com, Dick Wilmot, Editor, Independent RAID Report)
  1135.  
  1136. Try contacting the RAID project at the University of California, Berkeley. 
  1137. In the proceedings of the recent IEEE Mass Storage Symposium, Ann Drapeau
  1138. and Randy Katz have a paper describing the reults of some investigations
  1139. into the use of tape arrays.  I think you can find RAID papers, perhaps
  1140. this one, on anon ftp at sprite.berkeley.edu.  Have no address for Ann
  1141. Drapeau, but Randy Katz is randy@cs.berkeley.edu.
  1142.  
  1143. The RAID papers are available via anon ftp from
  1144. ginger.cs.berkeley.edu:pub/raidPapers
  1145.  
  1146. Ann Drapeau's email address is alc@cs.berkeley.edu.
  1147.  
  1148. (dm_devaney@pnl.gov, Mike DeVaney)
  1149. (eklee@cs.berkeley.edu, Edward K. Lee)
  1150.  
  1151. >>I am looking for papers or technical papers on RAID...
  1152.  
  1153. You could get that lengthy RAID taxonomy research report from Storage
  1154. Computer as mentioned recently on these news groups, by Emailing them at
  1155. RAID7@World.std.com    Alternatively, their phone number is 603 880 3005.
  1156. I do not know if their RAID research report is copyrighted or not.
  1157.  
  1158. I believe their executive in charge of RAID activities in Hong Kong would be
  1159. John Taylor, the former Wang national accounts director.  They also put
  1160. on technical raid seminars which might be of interest to your PhD students,
  1161. concentrating on performance enhancements over RAID 3/4/5 (somewhat less than
  1162. an order of magnitude, but I have not reviewed their benchmark data.)  The
  1163. RAID theory discussed is rather interesting.
  1164.  
  1165. (MICHAEL.WILLETT@OFFICE.WANG.COM, Michael Willett)
  1166. ---------
  1167. >> I am looking for papers or technical papers on RAID or other multiple disks
  1168. >> storage systems.  Could somebody give me pointers for them?
  1169.  
  1170. Here are some papers that I either have read or am looking for:
  1171.  
  1172. I don't have copies of this group:
  1173.  
  1174. Dishon, Yitzhak; Lui, T.S.; Disk Dual Copy Methods and Their Performance;
  1175.   FTCS-18: Eighteenth International Symposium on Fault-Tolerant Computing,
  1176.   Digest of Papers p 314-318
  1177.  
  1178. Gray, J.N. et. al., Parity Striping of Disk Arrays: Low Cost Reliable 
  1179.   Storage With Acceptable Throughput, 16th International Conference on
  1180.   VLDB (Austrailia, August 1990)
  1181.  
  1182. Katz, R.H.; Patterson, D.A.; Gibson, G.A.; Disk System Architectures for
  1183.   High Performance Computing; Proc. IEEE v 78 n 2 Feb 1990
  1184.  
  1185. Muntz, Richard R.; Lui, John C.S.; Proformance Analysis of Disk Arrays
  1186.   Under Failure; Proceedings of the 16th International Conference on Very
  1187.   Large Data Bases (VLDB); Dennis Mcleod, Ron Sacks-Davis, Hans Schek
  1188.   (Eds.), Morgan Kaufmann Publishers, Aug 1990 pp 162-173
  1189.  
  1190. Ng, Spencer; Some Design Issues of Disk Arrays; Compcon '89: Thirty-Fourth
  1191.   IEEE Computer Society Internationsl Conference p 137-142
  1192.   DISK ARRAYS, STRIPING, SPINDLE SYCHRONIZATION
  1193.  
  1194. Ng, Spencer W.; Improving Disk Performance via Latency Reduction; IEEE
  1195.   Transactions on Computers v 40 1 Jan 1991 p22-30
  1196.   LATENCY REDUCTION, ROTATION LATENCY, DISK PERFORMANCE
  1197.  
  1198. Reddy, A.L. Narasimha; Banerjee, Prithviraj; Performance Evalutaion of 
  1199.   Multiple-Disk I/O Systems; Proceedings of the 1989 International
  1200.   Conference on Parallel Processing p 315-318
  1201.  
  1202. Here are some good papers on disk arrays with emphasis on RAID:
  1203.  
  1204. Chen, Peter M.; Gibson, Garth A.; Katz, Randy H.; Patterson, David A.;
  1205.   Evaluation of Redundant Arrays of Disks Using an Amdahl 5890; 1990 ACM
  1206.   SIGMETRICS Conference on Measurement & Modeling of Computer Systems p 74-85
  1207.  
  1208. Chen, Peter M.; Patterson, David A.; Maximizing Performance in a Striped
  1209.   Disk Array; Proceedings of the 17th IEEE Annual International Symposium on
  1210.   Computer Architecture p 322-331
  1211.  
  1212. Chen, Shenze; Don Towsley; Performance of a Mirrored Disk in a Real-Time
  1213.   Transaction System; 1991 ACM SIGMETRICS Conference on Measurement &
  1214.   Modeling of Computer Systems p 198-207
  1215.  
  1216. Chervenak, Ann L.; Katz, Randy H.; Performance of a Disk Array Prototype;
  1217.   ACM SIGMETRICS 1991 Conference Proceedings p 188-197
  1218.  
  1219. Menon, J.; Mattson, R.L. and Spencer, N.; Distributed Sparing for Improved
  1220.   Performance of Disk Arrays; IBM Research Report RJ 7943 (Jan. 1991)
  1221.  
  1222. Patterson, David A.; Chen, Peter; Gibson, Garth; Katz, Randy H.;
  1223.   Introduction of Redundant Arrays of Inexpensive Disks (RAID); Compcon 1989:
  1224.   Thirty-Fourth IEEE Computer Society International Conference 
  1225.   p 112-117
  1226.  
  1227. Schulze, Martin; Gibson, Garth; Katz, Randy; Patterson, David A.; How Reliable
  1228.   is a RAID; Compcon '89: Thirty-Fourth IEEE Computer Society International
  1229.   Conference p 118-123
  1230.  
  1231.  
  1232. (danj@hub.parallan.com, Dan Jones)
  1233. --------
  1234. >>I am looking for papers or technical papers on RAID...
  1235.  
  1236. A good set of the Berkeley papers are available via anonymous FTP.
  1237. If I remember, the machine was sprite.berkeley.edu.  Also, an archie
  1238. search on "RAID" would probably turn up a nice on-line collection of
  1239. information.  (sorry, not at an Internet site to check this right now...)
  1240.  
  1241. (buck@siswat.hou.tx.us , Lester Buck)
  1242.  
  1243. Further Information:
  1244.     %A Garth Gibson
  1245.     %A Randy H. Katz
  1246.     %T A case for redundant arrays of inexpensive disks (RAID)
  1247.     %C Proc. SIGMOD.
  1248.     %c Chicago, Illinois
  1249.     %D 1--3 June 1988
  1250.     %P 109 116
  1251.     %k RAID, disk striping, reliability, availability, performance
  1252.     %k disk arrays, SCSI, hardware failures, MTTR, MTBF
  1253.     %k secondary storage
  1254.     %L Jacobson has a copy
  1255.     %x Increasing the performance of CPUs and memories will be
  1256.     %x squandered if not matched by a similar performance increase in
  1257.     %x I/O.  While the capacity of Single Large Expensive Disks (SLED)
  1258.     %x has grown rapidly, the performance improvement of SLED has been
  1259.     %x modest.  Redundant Arrays of Inexpensive Disks (RAID), based
  1260.     %x on the magnetic disk technology developed for personal
  1261.     %x computers, offers an attractive alternative to SLED, promising
  1262.     %x improvements of an order of magnitude in performance,
  1263.     %x reliability, power consumption, and scalability.  This paper
  1264.     %x introduces five levels of RAIDs, giving their relataive
  1265.     %x cost/performance, and compares RAID to an IBM 3380 and a
  1266.     %x Fujitsu Super Eagle.
  1267.  
  1268. (tage@cs.utwente.nl)
  1269.  
  1270.  
  1271. ------------------------------
  1272. Subject: [7.5] R-Squared {Brief}
  1273. From: RAID {Full}
  1274. Vangard Disk Array for DEC, Sun, HP, IBM RS/6000, SGI and others
  1275.  
  1276. Address: 11211 E Arapahoe Rd., Suite 200, Englewood, CO 80112
  1277.  
  1278. Phone: 303/799-9292, Fax: 303/799-9297
  1279.  
  1280. ------------------------------
  1281. Subject: [7.6] Sun {Brief}
  1282. From: RAID {Full}
  1283.  
  1284. Sun Microsystems has a new Fibre Channel array that does RAID 0, 1,
  1285. and 5. See
  1286.  
  1287. http://WWW.Sun.Com/
  1288.  
  1289. under the products descriptions. (rdv,94/8/8)
  1290.  
  1291. ------------------------------
  1292. Subject: [7.7] the RAIDbook {Brief,New}
  1293. From: RAID {Full}
  1294.  
  1295. The RAIDBook, a 100+ page tutorial on RAID technology and the
  1296. RAID Advisory Board, is available from Technology Forums, LTD,
  1297. of 6931 Glenview Lane, Lino Lakes, MN 55014-1296.
  1298.  
  1299. Contact Joe Molina, President of Technology Forums at 612-784-2379 or
  1300. 612-784-0206.
  1301.  
  1302. I've read it, it's decent but a little repetitive. Defines many
  1303. low-level terms of interest only to those who need to know the
  1304. internals. (rdv,95/2/7)
  1305.  
  1306. ------------------------------
  1307. Subject: [7.8] Software Striping {Brief}
  1308. From: RAID {Full}
  1309.  
  1310. Silicon Graphics provides software striping of SCSI disks; thus your
  1311. host can effectively act as a RAID controller, providing flexibility
  1312. and probably reduced price, possibly with a performance penalty in the
  1313. form of increased CPU overhead. However, it probably means that it can
  1314. spread the I/O load over multiple I/O controllers.
  1315.  
  1316. (similar features in other systems? SHMO --rdv)
  1317.  
  1318. sdsadmin on the HP 7xx line does raid 0 striping and works well.
  1319. this is also apparently possible on the 8xx machines using LVM.
  1320. sdsadmin is due to disappear with hpux 10, replaced by LVM.
  1321.  
  1322. I believe the Advanced FS on Alphas can also do raid 0.
  1323.  
  1324. (mark hahn, hahn@neurocog.lrdc.pitt.edu, 94/11/17)
  1325.  
  1326. ATTO Technology    has ExpressStripe, which does software striping on a
  1327. Mac.
  1328.  
  1329. ------------------------------
  1330. Subject: [7.9] RAID Vendors {New}
  1331. From: RAID {Full}
  1332.  
  1333. RAID vendors come and go quickly, OEM each other's equipment, change
  1334. names, and other activities that seem aimed at simply obscuring the
  1335. market. No list like this could be complete and up to date for long;
  1336. I'll gladly take updates.
  1337.  
  1338. The November '94 issue of _Advanced Imaging_ has a big article on
  1339. storage, primarily RAID arrays, with a pretty comprehensive list. This
  1340. table is distilled from that. Most of the info appears to be from the
  1341. vendors themselves. Almost all of these are fast/wide SCSI; a few are
  1342. Fibre Channel, NuBus, PCI or HiPPI (usually with IPI-3 command set). 
  1343. Most of these vendors have more than one model, only a few are listed
  1344. here. (rdv,95/1/18)
  1345.  
  1346. PC = Personal Computer (IBM compatible)
  1347. MC = Macintosh
  1348. PS = PC Server (Netware, NT et al)
  1349. UX = Unix (generic)
  1350. PU = Personal Unix
  1351. WU = Workstation Unix & workstation servers
  1352. MF = mainframe
  1353. MI = minicomputer (AS/400)
  1354. SU = Supercomputer
  1355.  
  1356. FC = Fibre Channel interface (usually SCSI command protocol)
  1357.  
  1358. Maker            Model        RAID Levels    Uses
  1359. -------------------------------------------------------------------------
  1360. AC Technology        Concorde    0,3,5        WU
  1361. ADJFILE Systems        Cougar, Tiger    0,1,3,5        ??
  1362. AT&T Global Information    Series 3    ??        WU,PS,PC
  1363.   Systems -- NCR
  1364. BusLogic        DA-x988        0,1,3,5        PC,PU,PS (PCI)
  1365. Canary Communications    IDA3500        0,1,3,4,5    ??
  1366. Ciprico            6800 Real-Time    ??        ??
  1367.             RAID Array
  1368. DEC            StorageWorks    0,1,5        ??
  1369.             RAID Array 210
  1370. Distributed Processing    SmartRAID    0,1,5        PC,PU,PS
  1371.   Technology
  1372. DynaTek Automation    AddARRAY    0,1        ??
  1373.   Systems
  1374. Fujitsu Comp. Prod.    DynaRAID    ??        ??
  1375.   America
  1376. FWB, Inc.        SledgHammer*FT    5        MC
  1377. IBM Storage Systems    7137 Disk Array    0,5        WU
  1378. Legacy Storage Systems    SmartArray    ??        PC (PCI)
  1379. Maximum Strategy    Gen5 Storage    0,1,3,5        SU (HiPPI,FC)
  1380.             Server
  1381. Mega Driver Systems    MR & MK Series    0,3,5        PC,PU,PS,MC,WU
  1382. MicroNet Technology    RAIDbank Plus    0,1,5        PC,PS,MC,PU?
  1383. Micropolis        RAIDION,GANDIVA    ??        PC,MC,PS,PU,WU
  1384. Microtech Int'l        XLerator    0,1        MC
  1385. Mylex            DAC960S        0,1,5,6?,7?    ??
  1386. Procom Technology    LANForce-5    0,1,3,5        MC,??
  1387. Raidtec            FlexArray IX    0,1,3,5        ??
  1388. Recognition Concepts    RDR series    ??        ??
  1389. Storage Computer    RAID 7        7?(4?)        ??
  1390. Storage Concepts    Concept 910    ??        ??
  1391. Storage Tek        Iceberg        ??        MF
  1392. XL/Datacomp        9638        5        MI,WU
  1393.  
  1394. ------------------------------
  1395. Subject: [8] Solid State Disk (SSD) Frequently Asked Questions (FAQ)
  1396. From: Solid State Disk (SSD) Frequently Asked Questions (FAQ)
  1397.  
  1398. *Note: This section is a slightly trimmed and editted version of the
  1399. SSD FAQ from Robert at DES (diskmsys@netcom.netcom.com) which I think
  1400. he also posts to c.d.sybase. I would take the "up to 1000 times
  1401. faster" claim with a grain of salt, though the general info is good.
  1402. --rdv, 94/9/15
  1403.  
  1404. 1) Q. What are solid-state disk emulators?
  1405.  
  1406. A. Simply put, solid-state disk emulators are Dynamic Random Access
  1407. Memory (DRAM)-based storage devices that appear to the host exactly as a
  1408. magnetic rotating disk.  DRAM chips, which are ultra-fast devices
  1409. that store data while the system is on, increase data access, thereby
  1410. eliminating I/O bottlenecks that constrain overall system performance.
  1411.  
  1412. Solid-state disk emulators can be either volatile or non-volatile,
  1413. meaning that they are able to retain data when the system is turned off.
  1414. DRAM alone is volatile.  Solid-state disk emulators that are designed with an
  1415. integrated backup system are non-volatile storage devices; if a power
  1416. outage occurs, the user's data is protected by the backup system and will
  1417. not be lost. Solid-state disk emulators are volatile when methods for
  1418. backing up data are absent.  A power failure will cause data to be
  1419. lost on a volatile solid-state disk.
  1420.  
  1421. 2) Q. How do solid-state disk emulators work?
  1422.  
  1423. A. Solid-state disk emulators plug into a computer's I/O controller.
  1424. Typical client/server systems use the ANSI-standard SCSI interface on
  1425. its I/O controller.  It is plug-and-play because it emulates a
  1426. rotating disk.  No special drivers or operating system patches are
  1427. required to make it work.  In addition, because there are no moving
  1428. parts, seek and rotational latency times are zero, which aids
  1429. solid-state disk emulators in performing up to 1000 times faster than
  1430. magnetic rotating disk drives.
  1431.  
  1432. 3) Q. What applications are well-suited for Solid State Disk?
  1433.  
  1434. A. In general terms:  1) transaction processing, 2) batch processing, and
  1435. 3) query or decision support analysis. Many types of application
  1436. software can take advantage of the super-fast access times SSD offers.
  1437.  
  1438. 4) Q. How reliable are Solid State Disks?
  1439.  
  1440. A. Based on real world user data from a large SSD site, the actual power
  1441. on hours mean-time between failure is greater than 1,000,000 hours. Since
  1442. this site has yet to have a failure, the number is likely to go up.
  1443.  
  1444. ------------------------------
  1445. Subject: [9] Other Devices
  1446. From: Other Devices
  1447.  
  1448. ------------------------------
  1449. Subject: [9.1] SyQuest Removable Cartridge hard Drives
  1450. From: Other Devices
  1451.         form factor: 2.5", 42MB
  1452.         form factor: 3.5", 105MB, 14msec ave seek, 3600 RPM, ave sustained 
  1453. transfer rate: 1.3MB/Sec, available in IDE and SCSI versions. Syquest 
  1454. Technology, Inc., 47071 Bayside Parkway, Frement CA 93438, Phone: 800/245-
  1455. 2278.
  1456.  
  1457. ------------------------------
  1458. Subject: [9.2] Kalok removable cartridge hard drives
  1459. From: Other Devices
  1460.         3.5-inch form factor, 250 MB
  1461.         Phone: 408/747-1315
  1462.  
  1463. ------------------------------
  1464. Subject: [10] RAIT (Redundant Arrays of Inexpensive Tape)
  1465. From: RAIT (Redundant Arrays of Inexpensive Tape)
  1466.  
  1467. (6/93)
  1468. There are at least two tape array products on the market:
  1469.  
  1470. Data General is selling the CLARiiON Tape Array Subsystem comprising
  1471. between five and seven 4mm DAT tape drives. Data can be recorded in
  1472. RAID-like striping redundancy, mirrored, or in conventional DAT layout.
  1473. This unit can provide up to 30GB of unattended contiguous storage. The
  1474. tape drives can record at sustained rates of 183 - 732 KB/second each but
  1475. customers should expect sustained backup at around 1 megabyte/second of
  1476. compressed data after accounting for host overheads. Data General is
  1477. working on a seven tape caddie to hold tape sets together. It is essential
  1478. that tapes in a RAID group not be separated.
  1479.  
  1480. NCR announced a tape array software product for NCR uniprocessors and
  1481. System 3450, System 3550 and StarServer Systems running UNIX V R4.2.01.
  1482. This tape array software yields faster and more reliable backup of large
  1483. database and file servers than with any single tape drive available today
  1484. but uses customers existing tape devices. It writes simultaneously to
  1485. multiple drives and can use array techniques to recover from loss or
  1486. failure in any single tape.
  1487.  
  1488. The motivations for tape arrays seems to parallel those for disk arrays:
  1489.         -       higher bandwidths
  1490.         -       increased reliability
  1491.  
  1492. (dwilmot@crl.com, Dick Wilmot, Editor, Independent RAID Report)
  1493.  
  1494. (6/93)
  1495. Pick up any DEC related trade rags and you can find an ad for an 8mm tape
  1496. array.  The ad I just found is by Contemporary Cybernetics and uses two
  1497. five GB 8mm drives with compression - they CLAIM to be able to get 50 GB os
  1498. storage total - but how many customers have 50 GB worth of 5:1 compressible
  1499. data?
  1500.  
  1501. Anyway - the ad doesn't mention RAID, but they support RAIDish (!) features
  1502. such as striping and mirroring.  It also supports offline tape-to-tape
  1503. copy and will automatically cascade onto the second tape when the first
  1504. one fills (useful for utilities that can't deal with multi-drive/multi-
  1505. volume).
  1506.  
  1507. I SEEM to remember someone having something like this with more drives, but
  1508. of course I couldn't locate the ad.
  1509.  
  1510. I would be really interested in seeing something like this for 3480 since the
  1511. transfer rate is already quite high...
  1512.  
  1513. (tbodoh@resdgs1.er.usgs.gov, Tom Bodoh)
  1514.  
  1515. At the Monterey IEEE Mass Storage Conference in April '93, Ann Drapeau
  1516. from Randy Katz's group presented a paper on striped tape.
  1517.  
  1518. The National Storage Lab High Performance Storage System reportedly
  1519. supports striping of removable media in the system software.
  1520.  
  1521. (rdv,95/1/13)
  1522.  
  1523. Something that came through the newsgroup recently (95/2/5):
  1524.  
  1525.  
  1526. Tape Arrays
  1527. High Performance tape drive units for large networks and minis.
  1528. Fast: up to 4Megabyes/second
  1529. High Capacity: from 24Gb on 4mm DATS to 60GB on DLTs; with 
  1530. autoloaders,up to 616GB
  1531. Flexibility: Stripe data across 4 drives, mirror data, 
  1532. stripe 2/mirror 2 - double your speed while creating an off-site
  1533. storage copy; off-line copy; pass-thru mode, etc.  
  1534. Transparent to your backup software - no changes or retraining
  1535. Compatible with all major OSs; including Novell, WindowsNT,
  1536. Unix, Sun, HP, Silicon Graphics, VMS, etc.
  1537. For More information:
  1538. William Wirth
  1539. Travlnmn@ix.net.com
  1540.  
  1541.  
  1542. ------------------------------
  1543. Subject: [11] RAOT (Redundant Arrays of Other Things :-)
  1544. From: RAOT (Redundant Arrays of Other Things :-)
  1545.  
  1546. Pinnacle Micro has been advertising what they call the Orray --
  1547. essentially RAID done with removable magneto-optical disk drives. They
  1548. claim sustained transfer rates up to 8 MB/sec., which seems
  1549. implausible given that it's only four drives, and even HP MO drives
  1550. are below 2 MB/sec. sustained. Apparently no redundancy in the system
  1551. for that configuration (so I guess my ROAT designator is a misnomer),
  1552. but it should be generally less necessary for MO than magnetic disk
  1553. (drive failures normally don't result in the destruction of data or
  1554. media).
  1555.  
  1556.         --rdv, 94/7/20
  1557. Archive-name: arch-storage/part2
  1558. Version: $Header: /home/rdv/comp-arch-storage/RCS/FAQ-2.draft,v 1.15 95/02/18 11:56:38 rdv Exp $
  1559. Posting-Frequency: monthly
  1560.  
  1561. Rod Van Meter, Joe Stith, and the gang on comp.arch.storage
  1562.  
  1563. Information on disk, tape, MO, RAID and SSD can be found in part 1 of
  1564. the FAQ.  Part 2 covers file systems, hierarchical storage management,
  1565. backup software, robotics, benchmarking, MTBF and miscellaneous
  1566. topics.
  1567.  
  1568.  
  1569.  
  1570. 1.     Standards
  1571. 1.1.   ANSI X3B5 {None}
  1572. 1.2.   IEEE Mass Storage System Ref Model (OSSI) {Brief, 11/14/94}
  1573. 1.3.   ECMA - European Computer Manufacturers Association {None}
  1574.  
  1575. 2.     Hierarchical Storage Management
  1576. 2.1.   Unitree {Brief}
  1577. 2.2.   National Storage Lab {Brief, New}
  1578. 2.3.   HIARC {New}
  1579. 2.4.   Epoch (also known as StorageTek's NearNet) {Brief}
  1580. 2.5.   Zetaco/NETstor {Brief}
  1581. 2.6.   R-Squared Infinity IFS 2 {Brief}
  1582. 2.7.   AMASS
  1583. 2.8.   Tracer XFS {None}
  1584. 2.9.   Metior
  1585. 2.10.  NAStore {Brief}
  1586. 2.11.  DMF {Brief}
  1587. 2.12.  FileServ {Brief}
  1588. 2.13.  Cray Research's Open Storage Manager {Brief, New}
  1589. 2.14.  T-mass {None}
  1590. 2.15.  Unix HSM Vendor List {New}
  1591. 2.16.  Non-Unix HSM
  1592. 2.17.  PC & PC Server Oriented Packages
  1593. 2.17.1. HP Optical Jukebox Storage Solution
  1594. 2.17.2. Chili Pepper Software
  1595. 2.18.  Cheyenne ARCserve {New}
  1596.  
  1597. 3.     Backup Software
  1598. 3.1.   PC-Oriented Backup Packages
  1599. 3.2.   Unix Packages
  1600. 3.2.1. Spectra Logic Alexandria {New}
  1601. 3.2.2. ADSTAR Distributed Storage Manager {New}
  1602.  
  1603. 4.     Robotics (Autochangers, Jukeboxes, Stackers)
  1604. 4.1.   8mm {Brief}
  1605. 4.1.1. Exabyte {Brief}
  1606. 4.1.1.1. EXB-10
  1607. 4.1.1.2. EXB-10i
  1608. 4.1.1.3. EXB-10e
  1609. 4.1.1.4. EXB-120
  1610. 4.1.2. Lago {Brief}
  1611. 4.1.3. ACL {None}
  1612. 4.1.4. Cambridge On-Line Storage {Brief}
  1613. 4.1.5. Spectra Logic {Brief, New}
  1614. 4.1.6. Qualstar {Brief,New}
  1615. 4.2.   3480
  1616. 4.2.1. StorageTek {Brief}
  1617. 4.2.2. GRAU {Brief, New}
  1618. 4.3.   4mm {Brief}
  1619. 4.3.1. Cambridge On-Line storage {Brief}
  1620. 4.3.2. Spectra Logic {Brief, New}
  1621. 4.3.3. HP 4mm {Brief, New}
  1622. 4.4.   VHS {Brief}
  1623. 4.4.1. Metrum, 800/METRUM-2
  1624. 4.5.   Digital Linear Tape (DLT) (Digital Equipment Corp) {Brief}
  1625. 4.5.1. TZ877 {Brief}
  1626. 4.5.2. TL820 {Brief}
  1627. 4.5.3. Metrum
  1628. 4.6.   D-2
  1629. 4.6.1. Ampex
  1630. 4.6.2. Odetics/EMASS
  1631. 4.7.   Optical Disk (MO,WORM) Libraries
  1632. 4.7.1. Hitachi 448 GB optical library
  1633. 4.7.2. HP MO Autochangers
  1634. 4.7.3. Maxoptix MO Autochangers
  1635. 4.7.4. Metrum {Brief}
  1636. 4.7.5. DISC {Brief}
  1637. 4.7.6. Kodak {Brief, New}
  1638. 4.8.   CD-ROM Jukeboxes
  1639. 4.8.1. Pioneer
  1640.  
  1641. 5.     File Systems
  1642. 5.1.   NFS {Brief}
  1643. 5.1.1. NFS V3 {New}
  1644. 5.2.   AFS {Brief}
  1645. 5.3.   DFS {Brief}
  1646. 5.4.   Log based file systems
  1647. 5.5.   Mainframe File Systems
  1648. 5.6.   Parallel System File Systems
  1649. 5.7.   Microsoft Windows NT {Brief}
  1650. 5.8.   Large Unix File Systems {New}
  1651. 5.9.   Non-Unix Large File Systems
  1652.  
  1653. 6.     (Device) Interfaces
  1654. 6.1.   SCSI {Full}
  1655. 6.1.1. Single ended vs differential
  1656. 6.1.2. Asynchronous vs Synchronous Transfers
  1657. 6.1.3. SCSI-I vs SCSI-II vs SCSI-III
  1658. 6.1.4. Fast-Wide SCSI
  1659. 6.1.5. Shared Busses / Performance {Brief}
  1660. 6.1.6. Cabling/Hot Plugging {Brief}
  1661. 6.1.7. Third Party Transfers/Separation of Control & Data Paths {Brief}
  1662. 6.2.   IDE {Brief}
  1663. 6.3.   IPI {None}
  1664. 6.4.   HIPPI {Brief}
  1665. 6.5.   Ultranet {Brief}
  1666. 6.6.   Ethernet {Brief}
  1667. 6.7.   FDDI {None}
  1668. 6.8.   Fibre Channel Standard (FCS) {None}
  1669. 6.9.   ESCONN {Brief}
  1670. 6.10.  Serial Bus {None}
  1671. 6.11.  Multibus, Unibus, Mainframe Channels, and other history {None}
  1672.  
  1673. 7.     Other
  1674. 7.1.   Video vs Datagrade tapes {brief, 5/94}
  1675. 7.2.   Compression {New}
  1676.  
  1677. 8.     Benchmarking {New}
  1678.  
  1679. 9.     Mass Storage Conferences
  1680.  
  1681. 10.    MTBF (Mean Time Between Flareups, er, Failures)
  1682.  
  1683. 11.    Mass Storage Reports
  1684.  
  1685. 12.    Appendix
  1686. 12.1.  Other References
  1687. 12.2.  Epoch vs Unitree
  1688.  
  1689. 13.    ORIGINAL CALL FOR VOTES
  1690.  
  1691. 14.    Original Author's Disclaimer and Affiliation:
  1692.  
  1693. 15.    Copyright Notice
  1694.  
  1695. 16.    Additional Topics to be added
  1696. ------------------------------
  1697. Subject: [1] Standards
  1698. From: Standards
  1699.  
  1700. There's a killer supply of standards, many computer-related, at
  1701. http://www-atp.llnl.gov/standards.html Fibre Channel and several
  1702. mass-storage-related items can be found there.
  1703.  
  1704. ------------------------------
  1705. Subject: [1.1] ANSI X3B5 {None}
  1706. From: Standards
  1707.  
  1708. ------------------------------
  1709. Subject: [1.2] IEEE Mass Storage System Ref Model (OSSI) {Brief, 11/14/94}
  1710. From: Standards
  1711.  
  1712. Available via ftp://swedishchef.lerc.nasa.gov:mass_store/ as the files
  1713. ossiv5.ps{1,2,3}.
  1714.  
  1715. The OSSI (Open Storage Systems Interconnection) Reference Model (its
  1716. new name) "provides the framework for a series of standards for
  1717. application and user interfaces to open storage systems." One of its
  1718. prime purposes is to define a common vocabulary. Claiming compliance
  1719. with the model at the moment has little practical value as far as
  1720. interoperation of different pieces from different vendors goes (which
  1721. is one of the ultimate aims of the still-distant standards that may
  1722. develop from this model).
  1723.  
  1724. ------------------------------
  1725. Subject: [1.3] ECMA - European Computer Manufacturers Association {None}
  1726. From: Standards
  1727.  
  1728. ------------------------------
  1729. Subject: [2] Hierarchical Storage Management
  1730. From: Hierarchical Storage Management
  1731.  
  1732. HSM systems transparently migrate files from disk to optical disk 
  1733. and/or magnetic tape, usually robotically accessable.  Then when files are 
  1734. accessed by a user, they transparently move them back to disk.
  1735.  
  1736. Watch for maximum file size limitations, sometimes limited by the 
  1737. size of the media used.
  1738.  
  1739. Some offer integrated backup. Some will manage multiple copies of
  1740. files for data reliability.
  1741.  
  1742. Some offer integrated migration from other systems (ie, file servers 
  1743. and/or workstations) to the central location disks, then to the central 
  1744. location robotics. This generally requires changes to the on-disk file
  1745. system format on the migration clients.
  1746.  
  1747. An item to watch for is that the file management may be exactly like
  1748. Unix -- that is, all files appear to be online, and once they're
  1749. deleted, they're gone forever, even though the data may still be on
  1750. tape.
  1751.  
  1752. All of the subsections here are Unix-compatible (in various flavors)
  1753. unless indicated otherwise.
  1754.  
  1755. Additional Information:
  1756.  
  1757. See also _DEC Professional_, February 1993, Page 40 and _Client/Server
  1758. Today_, Dec. '94, p. 60.
  1759.  
  1760. The System-Managed Storage Guide by Howard W. Miller, $225 for first 
  1761. copy, $75 for additional copies for same company available from The 
  1762. Information Technology Institute, 136 Orchard Street, Byfield, Massachusetts, 
  1763. 01922-1605.
  1764.  
  1765.         (stith@fnal.gov)
  1766.  
  1767. ------------------------------
  1768. Subject: [2.1] Unitree {Brief}
  1769. From: Hierarchical Storage Management
  1770.  
  1771. The granddaddy of UNIX HSMs. Developed primarily from an IBM mainframe
  1772. product called DataTree at Lawrence Livermore National Laboratories. 
  1773. Commercialized by a company called DISCOS, then sold to OpenVision.
  1774.  
  1775. Many versions exist on different hardware platforms, including a
  1776. National Storage Lab (NSL) UniTree commercialized by IBM - Fed
  1777. Systems. It's also available on SGI, Convex, and Amdahl hardware, at
  1778. least.
  1779.  
  1780.         See also "Epoch vs Unitree" in Appendix
  1781.  
  1782. For Convex, try
  1783.  
  1784.  
  1785. Jim Wilson
  1786. 214-497-3085
  1787. jrwilson@convex.com
  1788. Business Development
  1789. Data Management Applications
  1790. Convex Computer Corporation
  1791.  
  1792.  
  1793. For most other platforms, call Open Vision at (800)223-OPEN or
  1794. (510)426-6400.
  1795.  
  1796. ------------------------------
  1797. Subject: [2.2] National Storage Lab {Brief, New}
  1798. From: Hierarchical Storage Management
  1799.  
  1800. NSL is an industry consortium (American companies only) that has a
  1801. version of Unitree, and is creating their own new High Performance
  1802. Storage System.
  1803.  
  1804. HPSS, among other features, supports striping of removable media. Some
  1805. of the work is being done at LLNL, where UniTree was originally
  1806. developed.
  1807. There's a good overview reachable at
  1808. http://www.ccs.ornl.gov/HPSS/HPSS.html.
  1809.  
  1810. (rdv,95/1/12)
  1811.  
  1812. ------------------------------
  1813. Subject: [2.3] HIARC {New}
  1814. From: Hierarchical Storage Management
  1815.  
  1816. ?SHMO. I've heard of this but don't know anything about it.
  1817.  
  1818. ------------------------------
  1819. Subject: [2.4] Epoch (also known as StorageTek's NearNet) {Brief}
  1820. From: Hierarchical Storage Management
  1821.         See also "Epoch vs Unitree" in Appendix
  1822.  
  1823. ------------------------------
  1824. Subject: [2.5] Zetaco/NETstor {Brief}
  1825. From: Hierarchical Storage Management
  1826.  
  1827.         NETstor can be reached at netstor-sales@netstor.com
  1828.  
  1829.         NETstor, Inc. (formerly Zetaco, Inc.) is a leading provider of 
  1830. hierarchical online mass-storage systems for open systems.  Primarily NFS 
  1831. accessable systems with magnetic disks and optical-disk libraries.  They have 
  1832. marketing agreements with Digital Equipment Corp, and Hewlett-Packard.
  1833.  
  1834.         (stith@fnal.gov)
  1835.  
  1836. ------------------------------
  1837. Subject: [2.6] R-Squared Infinity IFS 2 {Brief}
  1838. From: Hierarchical Storage Management
  1839.  
  1840.         Contact: Steve Wine, Manager, Mass Storage Products, R-Squared, 11211 
  1841. East Arapahoe Rd, Englewood, CO  80112, 303/799-9292 or FAX 303/799-9297
  1842.  
  1843. ------------------------------
  1844. Subject: [2.7] AMASS
  1845. From: Hierarchical Storage Management
  1846.  
  1847. From Advanced Archival Products. Supports a huge range of devices,
  1848. autochangers, and operating systems. Block-based movement of data
  1849. between the hard disk cache and tape or optical tertiary storage.
  1850. Systems run from a few gigabytes up to at least 12 TB, with prices
  1851. dependent on capacity. New versions allow multiple cache disks. Slips
  1852. right in to the VFS layer and looks like a normal Unix file system,
  1853. with the plusses and minuses that entails. No file versioning or
  1854. multiple copies yet. File creation is an Achilles' heel on
  1855. performance. Since it's block based, files can be larger than a piece
  1856. of media. Separate product DataMgr will migrate files from client
  1857. machines to the AMASS server automatically (with FS changes, of
  1858. course).
  1859.  
  1860. ------------------------------
  1861. Subject: [2.8] Tracer XFS {None}
  1862. From: Hierarchical Storage Management
  1863.  
  1864. ------------------------------
  1865. Subject: [2.9] Metior
  1866. From: Hierarchical Storage Management
  1867.  
  1868. Metior (pronounced like meteor) is targetting an incredibly broad
  1869. market, from laptops with removable media through supercomputers, with
  1870. prices from $650(!) to $118K. They handle multiple coordinated copies,
  1871. so off-site backup can be automatic. Can do migration for client
  1872. machines (with appropriate software licenses and changes to the file
  1873. system). The hierarchy seems to be extremely flexible, variable on a
  1874. per-user or per-group basis. Machines without client licenses can
  1875. mount the Metior FS using NFS. Runs on Suns, SGI, and HP 9000/700. ANT
  1876. is new, and they've only got a handful of customers so far, but it
  1877. looks _very_ interesting.
  1878.  
  1879. (info from habbott@csn.org, written by rdv, so it's my fault if it's
  1880. not accurate) (rdv,94/7/7)
  1881.  
  1882. More information available on the WWW FAQ version.
  1883.  
  1884. Automated Network Technologies
  1885. 3333 South Bannock Street, Suite 945
  1886. Englewood, CO 80110   USA
  1887. Phone 303.789.2506
  1888. FAX 303.789.2438
  1889. Email hal@anthill.com
  1890.  
  1891.  
  1892. ------------------------------
  1893. Subject: [2.10] NAStore {Brief}
  1894. From: Hierarchical Storage Management
  1895.  
  1896. NAStore is a Unix migrating file system developed by the Numerical
  1897. Aerodynamic Simulation program at NASA Ames. It is available through
  1898. NASA's software distribution agency, COSMIC. It currently runs only on
  1899. Convex with 34x0 cartridges and Storage Tek robots. Looks like a local
  1900. file system to users of the Convex.
  1901.  
  1902. Info on NAStore can be found on the web at
  1903. http://chuck.nas.nasa.gov/NAStore/NAStore.html
  1904.  
  1905.         COSMIC's address is :
  1906.         University of Georgia
  1907.         382 East Broad Street
  1908.         Athens, Georgia, 30602-4272, US
  1909.         011-706-542-3265
  1910.         service@cossack.cosmic.uga.edu
  1911.  
  1912. For more information on NAStore, contact John Lekashman, lekash@nas.nasa.gov.
  1913. (info from Bill Ross, bross@nas.nasa.gov, 94/9/15)
  1914.  
  1915. ------------------------------
  1916. Subject: [2.11] DMF {Brief}
  1917. From: Hierarchical Storage Management
  1918.  
  1919. Cray Research's Data Migration Facility.
  1920.  
  1921. ------------------------------
  1922. Subject: [2.12] FileServ {Brief}
  1923. From: Hierarchical Storage Management
  1924.  
  1925. From E-Systems. Works with the E-Systems ER-90 (D-2) tape drive and
  1926. Odetics robots, as well as 3480 with the Storage Tek ACS 4400. Runs on
  1927. Convexes (only?). Supports multiple copies of files. Retrieves only
  1928. necessary info from tape to disk before completing request.
  1929.  
  1930. ------------------------------
  1931. Subject: [2.13] Cray Research's Open Storage Manager {Brief, New}
  1932. From: Hierarchical Storage Management
  1933.  
  1934. They have some agreement with Legent Corporation. OSM runs on Sparc
  1935. machines, including the Cray Superservers. Price ranges from $500 to
  1936. $5,000, which is very cheap for HSM. However, it might only be capable
  1937. of migrating among disks -- I don't see any mention of autochangers.
  1938. (rdv, 94/12/9)
  1939.  
  1940. ------------------------------
  1941. Subject: [2.14] T-mass {None}
  1942. From: Hierarchical Storage Management
  1943.  
  1944. ------------------------------
  1945. Subject: [2.15] Unix HSM Vendor List {New}
  1946. From: Hierarchical Storage Management
  1947.  
  1948. This list is adapted from _Client/Server Today_, Dec. '94, with some
  1949. of my own additions. All the phone numbers are USA (apologies to
  1950. international readers for the 800 numbers, but they're all I've got). 
  1951. I don't know anything about some of these companies; I suspect some of
  1952. them work with HSM from other vendors rather than their own packages.
  1953.  
  1954. I've indicated on the list various reports of companies OEMing from
  1955. each other; this is not out of disrespect for the work involved in
  1956. OEMing/supporting or porting such complex software, but an attempt to
  1957. divide the HSM vendors into "families" with similar capabilities
  1958. (occassionally on very disparate platforms).
  1959.  
  1960. Vendor                    Product        Contact
  1961. ------                    -------        -------
  1962. Advanced Archival Products        AMASS        (303)792-9700 *
  1963. Advanced Software Concepts (ASC)            (619)737-9544
  1964. Alphatronix                ASC        (919)544-0001
  1965. Artecon                    ASC        (619)931-5500
  1966. AT&T CommVault                DataMigrator    (908)935-8000
  1967. Automated Network Technologies (ANT)    Metior        (303)789-2506 *
  1968. Computer Associates International            (800)225-5244
  1969. Computer Upgrade                    (808)874-8807
  1970. Convex Computer                UniTree        (214)497-3085 *
  1971. COSMIC (NAStore)                    (706)542-3265 +
  1972. Cray Research                DMF                  ?*
  1973. Digital Equipment (DEC)            NETstor        (800)344-4825
  1974. Dorotech                        (703)478-2260
  1975. Epoch Systems                        (508)836-4300 *
  1976. E-Systems                FileServ              ?*
  1977. File Tek                        (301)251-0600
  1978. Fujitsu Computer Products of America    OSM        (408)432-6333
  1979. Hewlett-Packard                NETstor        (800)637-7740x8509
  1980. HIARC                            (714)253-6990
  1981. IBM                    UniTree        (800)225-5426
  1982. Introl                            (612)788-9391
  1983. Large Software Configurations (LSC)            (612)788-6008
  1984. Legent                    $OSM        (703)708-3000
  1985. National Storage Lab (NSL)         HPSS                  +*
  1986. NETstor (Cheyenne)            $NETstor    (612)890-9367
  1987. OpenVision                UniTree        (510)426-6400 *
  1988. Qstar Technologies                    (301)762-9800
  1989. Raxco                            (301)258-2620
  1990. Software Partners/32                    (508)887-6409
  1991. Storage Technology (STK, StorageTek)            (303)673-5151
  1992. T-mass                                           ?
  1993. Tracer XFS                                  ?
  1994.  
  1995. * = Info elsewhere in FAQ
  1996. + = not commercial product
  1997. ? = no contact info
  1998. $ = original developer (no mark indicates OEM)
  1999.  
  2000. ------------------------------
  2001. Subject: [2.16] Non-Unix HSM
  2002. From: Hierarchical Storage Management
  2003.  
  2004. DEC's old Tops-20 OS supported offline files, and would generate an
  2005. automatic request to the operator to mount a tape when the user
  2006. accessed the file. When you listed a directory, it would show you
  2007. which files were online and which off.
  2008.  
  2009. DEC's OpenVMS has some sort of support for this now. VMS 6.1 supports
  2010. "shelved" files.
  2011.  
  2012. There is also the product Virtual Branches, from Acorn Software, which
  2013. does HSM for MO and CD-ROM for OpenVMS.
  2014.  
  2015.  
  2016. Acorn Software, Inc.
  2017. 179 Great Road, Suite 104
  2018. Action, MA  01720
  2019. voice:  (508)266-9800
  2020. fax:    (508)266-9707
  2021. Internet:  info@acornsw.com
  2022.  
  2023.  
  2024. For Windows NT:
  2025.  
  2026. Try:
  2027.  
  2028. Avail Systems
  2029. 4760 Walnut St
  2030. Boulder, CO  80301
  2031. voice: +1.303.444.4018
  2032.   fax: +1.303.546.4219
  2033.  
  2034. dave_skinner@intellistor.com (Dave Skinner) (95/2/12)
  2035.  
  2036.  
  2037.  
  2038. ------------------------------
  2039. Subject: [2.17] PC & PC Server Oriented Packages
  2040. From: Hierarchical Storage Management
  2041.  
  2042. ------------------------------
  2043. Subject: [2.17.1] HP Optical Jukebox Storage Solution
  2044. From: Hierarchical Storage Management
  2045.         Netware 3.11 based, up to 10.4 Gigabytes, includes model 10LC optical 
  2046. jukebox which has one drive and 16 disks each with 650 MB formatted capacity.  
  2047. Hewlet-packard (Palo Alto, CA) 800/826-4111.
  2048.  
  2049. ------------------------------
  2050. Subject: [2.17.2] Chili Pepper Software
  2051. From: Hierarchical Storage Management
  2052.  
  2053. A company from Atlanta, GA named Chili Pepper Software (404-339-1812)
  2054. and 3M have gotten together in some fashion to make HSM software for
  2055. PCs using QIC. (rdv, 94/9/5)
  2056.  
  2057. ------------------------------
  2058. Subject: [2.18] Cheyenne ARCserve {New}
  2059. From: Hierarchical Storage Management
  2060.  
  2061. Runs on Netware servers. Transparent to most clients, but has a neat
  2062. feature: if you use a special TSR and DLL on client PCs, when it has
  2063. to retrieve a file from secondary or tertiary storage, it can give you
  2064. an estimated retrieval time and the option to abort. (516)484-5110,
  2065. (800)243-9462.
  2066. (rdv,95/02/14)
  2067.  
  2068. ------------------------------
  2069. Subject: [3] Backup Software
  2070. From: Backup Software
  2071.  
  2072. Backup software usually provides some form of management of files,
  2073. tapes, and autochangers. Retrieval of files is not automatic (as in
  2074. true HSM). These are designed to allow you to recover from disk or
  2075. file system failures, and to recover files accidentally (or
  2076. maliciously) deleted or corrupted. Some work in conjunction with HSM
  2077. systems, which are often vulnerable to the latter class of problems.
  2078.  
  2079. I've concentrated here on backup software that supports various
  2080. autochangers, as this is of more interest to people in this group than
  2081. standalone software for backing up one hard disk onto one tape.
  2082.  
  2083. ------------------------------
  2084. Subject: [3.1] PC-Oriented Backup Packages
  2085. From: Backup Software
  2086.  
  2087. I don't think any of the PC operating systems come with tape support
  2088. built in, so you have to have some 3rd party software to work with
  2089. tape. This short list is primarily oriented toward PC servers.
  2090. It's partly derived from _PC Magazine_, March 29, 1994, pp. 227-272.
  2091.  
  2092. Arcada Software - Storage Exec.        (NT)
  2093. Avail                    (NT)
  2094. Cheyenne Software - ArcServe        (Netware)
  2095. Conner Storage Systems - Backup Exec    (Netware)
  2096. Emerald Systems - Xpress Librarian
  2097. Fortunet - NSure NLM/AllNet
  2098. Legato - NetWorker            (Netware)
  2099. Mountain Network Solutions - FileSafe
  2100. NovaStor                (Netware)
  2101. Palindrome - Network Archivist        (Netware, OS/2, Windows)
  2102. Palindrome -Backup Director
  2103. Performance Technology - PowerSave    (Netware)
  2104. Systems Enhancement - Total Network Recall
  2105.  
  2106. {Under Construction}(SHMO)
  2107.  
  2108. ------------------------------
  2109. Subject: [3.2] Unix Packages
  2110. From: Backup Software
  2111.  
  2112. Some people claim "Unix tape support is an oxymoron," so there's a big
  2113. market in outdoing tar, dump, dd and cpio.
  2114.  
  2115. APUnix - FarTool
  2116. Cheyenne - ArcServe (see under PCs, above)
  2117. Dallastone - D-Tools
  2118. Delta MicroSystems (PDC) - BudTool
  2119. Epoch Systems - Enterprise Backup
  2120. IBM - ADSM (Adstar Distributed Storage Manager)
  2121. Hewlett Packard - OmniBack II
  2122. Legato - Networker
  2123. Network Imaging Systems
  2124. Software Moguls - SM-arch
  2125. Spectra Logic - Alexandria
  2126. Workstation Solutions
  2127.  
  2128. {Under Construction}(SHMO)
  2129.  
  2130. ------------------------------
  2131. Subject: [3.2.1] Spectra Logic Alexandria {New}
  2132. From: Backup Software
  2133.  
  2134. Spectra Logic makes 4mm & 8mm autochangers, but this software supports
  2135. other autochangers as well. Has a nice feature that it claims to be
  2136. capable of backing up live Oracle, Informix and Sybase databases.
  2137. email alexandria@spectra.wali.com. (rdv,95/2/14)
  2138.  
  2139. ------------------------------
  2140. Subject: [3.2.2] ADSTAR Distributed Storage Manager {New}
  2141. From: Backup Software
  2142.  
  2143. Runs on everything from OS/2, AIX and OS/400 to VSE/ESA, MVS and VM
  2144. providing backups for virtually everything you can think of in PCs and
  2145. workstations. (800)IBM-3333 or anonymous ftp to index.storsys.ibm.com.
  2146. (rdv,95/2/14)
  2147.  
  2148. ------------------------------
  2149. Subject: [4] Robotics (Autochangers, Jukeboxes, Stackers)
  2150. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2151.  
  2152. I use the term "robotics" to refer to access to multiple removable 
  2153. volumes by a fewer number of drives without a person.  This includes 
  2154. sequential stackers, as well as random access robotics.
  2155.  
  2156. A stacker typically is capable of taking (literally) a stack of tapes
  2157. and putting them into the drive one at a time, in order. No random
  2158. access to specific tapes, as with a full-function autochanger.
  2159. Stackers typically are limited to 8-10 cartridges, and are used by
  2160. people whose backups have exceeded the size of one cartridge.
  2161.  
  2162. ------------------------------
  2163. Subject: [4.1] 8mm {Brief}
  2164. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2165.  
  2166. ------------------------------
  2167. Subject: [4.1.1] Exabyte {Brief}
  2168. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2169. Phone: 800/EXABYTE, 1685 38th st, Boulder, CO 80301, Fax 303/447-7689.
  2170.  
  2171. ------------------------------
  2172. Subject: [4.1.1.1] EXB-10
  2173. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2174.         Ten cartridges, one full-height drive
  2175.  
  2176. Original 10 cartridge robot.  No robotic intelligence, when one tape
  2177. comes out, the robot mounts the next tape in sequence (i.e. a kind of
  2178. stacker).  Button selectable to loop back to the first tape or to stop
  2179. at the end.
  2180.  
  2181. ------------------------------
  2182. Subject: [4.1.1.2] EXB-10i
  2183. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2184.         Ten cartridges, one full-height drive.
  2185.  
  2186. Released shortly after the EXB-10.  Includes SCSI attachment to 
  2187. robotics.  Now nearly replaced by the EXB-10e.
  2188.  
  2189. ------------------------------
  2190. Subject: [4.1.1.3] EXB-10e
  2191. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2192.  
  2193. Ten cartridges, one full-height drive.
  2194.  
  2195. Announced around 4/93.  Includes better controll panel and display 
  2196. than EXB-10i.  Drive mounted horizontal and tape magazine at slight angle 
  2197. (rather than visa versa in EXB-10i).
  2198.  
  2199. ------------------------------
  2200. Subject: [4.1.1.4] EXB-120
  2201. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2202.  
  2203. Holds 120 8mm cartridges, up to four full-height drives.
  2204.  
  2205. ------------------------------
  2206. Subject: [4.1.2] Lago {Brief}
  2207. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2208.  
  2209.  Holds 54 8mm tape cartridge in a carousel with 2 8mm drives.
  2210.  
  2211.  
  2212.         Lago can be reached at 800/866-LAGO
  2213.                 LAGO Systems
  2214.                 Address: 151 Albright Way
  2215.                 Los Gatos, CA 95030-9973
  2216.  
  2217.  
  2218. ------------------------------
  2219. Subject: [4.1.3] ACL {None}
  2220. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2221.  
  2222. ------------------------------
  2223. Subject: [4.1.4] Cambridge On-Line Storage {Brief}
  2224. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2225.         Sixty and 240 GB libraries, 713/981-3812
  2226.  
  2227. ------------------------------
  2228. Subject: [4.1.5] Spectra Logic {Brief, New}
  2229. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2230.  
  2231. Spectra Logic makes SCSI-controlled 8mm and 4mm (DAT) autochangers.
  2232. One to four drives, with 20 to 60 slots. Capacity currently up to 600
  2233. GB of DDS-2 (4mm) or 300 GB 8mm. Early models (STL-6000 & STL-8000)
  2234. were a rotating carousel. Newer ones use an arm and the tapes don't
  2235. move.
  2236.  
  2237. Supported by a variety of software vendors. List prices of $9K
  2238. (Spectra 4000/20 slots, one DDS-2 drive) to $31K (60 slots with four
  2239. drives and barcode support) including drives.
  2240.  
  2241. They also make a thing called TapeFrame, which consists of several of
  2242. their autochangers working in conjunction, with capacities up to 2.2
  2243. TB.
  2244.  
  2245. U.S.: 1-800-833-1132 or 303-449-6400
  2246.  
  2247. (Britt Terry, britt@spectra.wali.com, 95/1/12)
  2248.  
  2249. See also under backup software.
  2250.  
  2251. ------------------------------
  2252. Subject: [4.1.6] Qualstar {Brief,New}
  2253. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2254.  
  2255. Makes 8mm libraries that hold 10 to 120 cartridges and 2 to 6 drives.
  2256. tel:(818)592-0116 fax:(818)592-0061 (rdv,95/2/14)
  2257.  
  2258. ------------------------------
  2259. Subject: [4.2] 3480
  2260. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2261.  
  2262. ------------------------------
  2263. Subject: [4.2.1] StorageTek {Brief}
  2264. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2265.  
  2266. Storage Tek makes huge autochangers, referred to as silos, round and
  2267. several (~5) meters in diameter. They hold 6,000 3480-style tapes. At
  2268. original 3480 densities, that's only 1.2 TB per silo, but capacities
  2269. have gone up to (I think) 800 MB/cartridge, and are poised for a HUGE
  2270. jump if Storage Tek gets their Redwood tape drive finished (in beta
  2271. test, 12/94), up to 20 GB/cartridge, 120 TB/silo.
  2272.  
  2273. STK also OEMs a 3480 autochanger from Odetics. Holds ~260 cartridges,
  2274. I think, in rotating drum, with room for ?2? tape drives above it.
  2275. (rdv,95/1/12)
  2276.  
  2277. ------------------------------
  2278. Subject: [4.2.2] GRAU {Brief, New}
  2279. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2280.  
  2281. Grau, a German manufacturer, makes high-end, very large capacity
  2282. mixed-media autochangers known as the ABBA series, targetted I believe
  2283. primarily at the IBM mainframe market. I know they support 3480-format
  2284. cartridges, but I'm not sure what other media (rdv,94/11/7).
  2285.  
  2286. ------------------------------
  2287. Subject: [4.3] 4mm {Brief}
  2288. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2289.  
  2290. ------------------------------
  2291. Subject: [4.3.1] Cambridge On-Line storage {Brief}
  2292. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2293.         Libraries of 120 and 40 GB, 713/981-3812
  2294.  
  2295. ------------------------------
  2296. Subject: [4.3.2] Spectra Logic {Brief, New}
  2297. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2298.  
  2299. Spectra Logic makes SCSI-controlled 8mm and 4mm autochangers. See
  2300. above under 8mm autochangers.
  2301.  
  2302. ------------------------------
  2303. Subject: [4.3.3] HP 4mm {Brief, New}
  2304. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2305.  
  2306. I think HP makes their own 4mm autochangers.
  2307.  
  2308. ------------------------------
  2309. Subject: [4.4] VHS {Brief}
  2310. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2311.  
  2312. ------------------------------
  2313. Subject: [4.4.1] Metrum, 800/METRUM-2
  2314. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2315.  
  2316. Autochangers for their VHS-based high-capacity (20GB, 2 MB/sec.) tape
  2317. drive. They now have a stacker available for standalone drives.
  2318.  
  2319. Library of 960 GB (RSS-48b) holds 2 drives and 48 cartridges in a
  2320. rotating drum.
  2321.  
  2322. Library of 12 TB (RSS-600b) holds 5 drives and 600 cartridges in less
  2323. than 20 square feet of floor space. The tapes are held in rotating
  2324. drums on each side, with the drives in a rack in between.
  2325.  
  2326. OEMs through Convex, IBM, and a host of resellers. Integrated with
  2327. various backup and HSM packages, including UniTree from Convex & IBM,
  2328. and AMASS from AAP.
  2329.  
  2330. See Metrum also under MO and DLT autochangers.
  2331.  
  2332.  
  2333. Metrum Information Storage
  2334. 4800 E. Dry Creek Rd.
  2335. Littleton, CO 80122
  2336. (303) 773-4700
  2337. (800) 231-8202
  2338. (303) 773-4817 (fax)
  2339.  
  2340.  
  2341. ------------------------------
  2342. Subject: [4.5] Digital Linear Tape (DLT) (Digital Equipment Corp) {Brief}
  2343. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2344.         T* names are DEC's names, DLT2* names are OEM names.
  2345.  
  2346. ------------------------------
  2347. Subject: [4.5.1] TZ877 {Brief}
  2348. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2349.  
  2350.         One TZ87 tape drive, 7 cartridges, each 10GB native
  2351.         Presumed to be the same as the DLT2700 library.
  2352.         Ref: Digital's Customer Update, March 14, 1994
  2353.  
  2354.  
  2355. ------------------------------
  2356. Subject: [4.5.2] TL820 {Brief}
  2357. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2358.  
  2359.         Holds 3 TZ87 tape drives, 264 catridges, five libraries attachable
  2360.         Presumed to be Odetics made (714/774-5000)
  2361.         About $150K U.S.
  2362.         Ref: Digital's Customer Update, March 14, 1994
  2363.  
  2364. ------------------------------
  2365. Subject: [4.5.3] Metrum
  2366. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2367.  
  2368. At Comdex '94 in Vegas, Metrum introduced the D-900 (900 cartridges,
  2369. up to 20 drives, 9TB uncompressed for DLT-2000) and D-360 (360
  2370. cartridges, up to 8 drives, 3.6 TB uncompressed for DLT-2000) DLT
  2371. autochangers. There is an expansion unit with 480 cartridges and no
  2372. drives. Up to eight D-360 or D-480 units can be connected via
  2373. passthrough. They also introduced 28 and 60 cartridge DLT
  2374. autochangers. Customer shipments starting in early '95. See above
  2375. under VHS for contact info.
  2376.  
  2377. ------------------------------
  2378. Subject: [4.6] D-2
  2379. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2380.  
  2381. ------------------------------
  2382. Subject: [4.6.1] Ampex
  2383. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2384. Ampex makes their own autochangers for the DST DD-2 tape drive (see
  2385. part 1 of the FAQ).
  2386.  
  2387. DST 410 Automated Cartridge Library:
  2388. Up to 1.2 terabytes capacity (uncompressed) in 7 square feet of floor space.
  2389. All 3 cartridge (cassette) sizes supported - 25, 75, 165 gigabytes
  2390. (uncompressed).
  2391. SCSI Medium Changer Commands or Ethernet NetSCSI protocol.
  2392. Console mounted configuration.
  2393. Single unit price:  $150K.
  2394.  
  2395. DST 810 Automated Cartridge Library:
  2396. Up to 6.4  terabytes (uncompressed) in 21 square feet of floor space.
  2397. Robotic performance of 600 cartridge exchanges per hour.
  2398. Average access time to any file less than 30 sec. (including cartridge
  2399. exchange, drive load and search to data).
  2400. 1 to 4 tape drives per library.
  2401. Ethernet NetSCSI protocol robotics control.
  2402. Starting single unit price:  $300K.
  2403.  
  2404. (pete_zakit@ampex.com, 94/12/23)
  2405.  
  2406. ------------------------------
  2407. Subject: [4.6.2] Odetics/EMASS
  2408. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2409.  
  2410. Odetics makes a thing called a DataTower that holds ~250 S-size D-2
  2411. cartridges. It's sold through EMASS for use with the ER-90 (the
  2412. Ampex/EMASS D-2 drive). It's a small silo that sits in front of one
  2413. rack of drives.
  2414.  
  2415. They also make an expandable library known as the DataLibrary, with a
  2416. maximum capacity of ten petabytes(!) (ten million gigabytes). A robot
  2417. handler runs on a track down an aisle lined with cartridges, and tape
  2418. drives at one (both?) end(s) of the aisle. I think the aisles can vary
  2419. in length, and they can be lined up next to each other and I believe
  2420. cartridges will pass between them.
  2421.  
  2422. ------------------------------
  2423. Subject: [4.7] Optical Disk (MO,WORM) Libraries
  2424. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2425.  
  2426. Several other Japanese manufacturers make optical libraries, I think,
  2427. mostly in support of their own drives. (SHMO)
  2428.  
  2429. ------------------------------
  2430. Subject: [4.7.1] Hitachi 448 GB optical library
  2431. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2432. 12-inch worm, up to 7GB per platter, 2-4 drives, additional cartridge 
  2433. expansion unit increases capacity 560 GB to 1,008 GB.
  2434. Drive rates up to 2.22 MB/sec.
  2435. Phone: 800/HITACHI
  2436.  
  2437. ------------------------------
  2438. Subject: [4.7.2] HP MO Autochangers
  2439. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2440.  
  2441. Makes several models, from 16 disks and one drive up to 144 disks and
  2442. ?4? drives. These are very popular.
  2443.  
  2444. ------------------------------
  2445. Subject: [4.7.3] Maxoptix MO Autochangers
  2446. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2447.  
  2448. Makes several models in the MaxLyb series, the 52, 120 and 180, which
  2449. correspond to the capacity in gigabytes for 1.3 GB drives. They hold,
  2450. respectively, 2 (52), 2 or 4 (120) and 2, 4 or 6 (180) drives.
  2451.  
  2452. They also have a fairly mysterious thing called the Axxis^26, a "high
  2453. speed network file retrieval & backup server," which is obviously an
  2454. MO autochanger, apparently bundled with a license for Palindrome
  2455. Backup Director, suitable for attaching to your Netware file server?
  2456.  
  2457. tel: (408)954-9700, (800)848-3092
  2458. fax: (408)954-9711
  2459.  
  2460. (rdv,95/02/14)
  2461.  
  2462. ------------------------------
  2463. Subject: [4.7.4] Metrum {Brief}
  2464. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2465.  
  2466. Now has the OSS-626, which holds 450-626 disks and 2-24 full-height HP
  2467. drives. See above under VHS for contact info.
  2468.  
  2469. ------------------------------
  2470. Subject: [4.7.5] DISC {Brief}
  2471. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2472.  
  2473. Makes large libraries (up to ~1 TB with passthrough); rumored to be in
  2474. financial trouble.
  2475.  
  2476. ------------------------------
  2477. Subject: [4.7.6] Kodak {Brief, New}
  2478. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2479.  
  2480. Kodak makes their own autochangers for their large (?12"?) optical
  2481. drive.
  2482.  
  2483. ------------------------------
  2484. Subject: [4.8] CD-ROM Jukeboxes
  2485. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2486.  
  2487. ------------------------------
  2488. Subject: [4.8.1] Pioneer
  2489. From: Robotics (Autochangers, Jukeboxes, Stackers)
  2490.  
  2491. From: mc@msss.com (Mike Caplinger)
  2492. Subject: driver software for Pioneer DRM-5004X CDROM jukebox
  2493. Date: Tue Aug 23 10:09:00 PDT 1994
  2494. Organization: UTexas Mail-to-News Gateway
  2495. Lines: 13
  2496.  
  2497. Pioneer recently announced their DRM-5004X CDROM jukebox, which has
  2498. four quad-speed drives and holds 500 CDs for under $20,000.
  2499.  
  2500.         Mike Caplinger
  2501.         mc@msss.com
  2502.  
  2503. ------------------------------
  2504. Subject: [5] File Systems
  2505. From: File Systems
  2506.  
  2507. This topic is also discussed frequently in comp.os.research.
  2508.  
  2509. ------------------------------
  2510. Subject: [5.1] NFS {Brief}
  2511. From: File Systems
  2512.  
  2513. The Network File System, originally developed by Sun Microsystems and
  2514. now pretty standard in the Unix world. V2, the common version,
  2515. supports single files only up to 2^32 (4GB) bytes. I'm not sure if
  2516. there are any limits to a file system size under NFS, other than those
  2517. imposed by the client and server OSes (SHMO).
  2518.  
  2519. NFS is defined in RFC 1094. I don't think V3 is standardized yet.
  2520.  
  2521. There is at least one newsgroup devoted specifically to NFS.
  2522.  
  2523. ------------------------------
  2524. Subject: [5.1.1] NFS V3 {New}
  2525. From: File Systems
  2526.  
  2527. NFS V3 supports 64-bit files.
  2528.  
  2529. The first implementation was from Digital with DEC OSF/1 V3.0 for
  2530. Alpha AXP. Silicon Graphics supports it on IRIX 5.3. Cray will support
  2531. it on UNICOS 9. I don't know about other vendors but I have heard
  2532. rumours that the releases coming in the second half of 1995 will
  2533. support it.
  2534.  
  2535. Further information on NFS V3 can be found from
  2536. ftp://gatekeeper.dec.com/pub/standards/nfs/NFS3.spec.ps.Z
  2537.  
  2538. (jmaki@csc.fi, 95/1/22)
  2539.  
  2540. ------------------------------
  2541. Subject: [5.2] AFS {Brief}
  2542. From: File Systems
  2543.  
  2544. The Andrew File System (SHMO). Allows naming of files worldwide as if
  2545. they were a locally-mounted FS (from cooperating clients, of course).
  2546.  
  2547. ------------------------------
  2548. Subject: [5.3] DFS {Brief}
  2549. From: File Systems
  2550.  
  2551. Another remote file system protocol that supports large files. I don't
  2552. know anything about it, or if any implementations really exist yet.
  2553.  
  2554. ------------------------------
  2555. Subject: [5.4] Log based file systems
  2556. From: File Systems
  2557.  
  2558. Further Information:
  2559.     %z InProceedings
  2560.     %K hpdb:Rosenblum91
  2561.     %s golding@cis.ucsc.edu (Thu Oct 17 11:12:07 1991)
  2562.     %A Mendel Rosenblum
  2563.     %A John K. Ousterhout
  2564.     %y UCBCS.
  2565.     %T The design and implementation of a log-structured file system
  2566.     %C Proc. 13th SOSP.
  2567.     %c Asilomar, Pacific Grove, CA
  2568.     %p ACM. SIGOPS
  2569.     %D 13 Oct. 1991
  2570.     %P 1 15
  2571.     %x This paper presents a new technique for disk storage management
  2572.     %x called a log-structured file system.  A log-structured file system
  2573.     %x writes all modifications to disk sequentially in a log-like
  2574.     %x structure, thereby speeding up both file writing and crash
  2575.     %x recovery.  The log is the only structure on disk; it contains
  2576.     %x indexing information so that files can be read back from the log
  2577.     %x efficiently.  In order to maintain large free areas on disk for
  2578.     %x fast writing, we divide the log into segments and use a segment
  2579.     %x cleaner to compress the live information from heavily fragmented
  2580.     %x segments.  We present a series of simulations that demonstrate the
  2581.     %x efficiency of a simple cleaning policy based on cost and benefit.
  2582.     %x We have implemented a prototype log-structured file system called
  2583.     %x Sprite LFS; it outperforms current Unix file systems by an order of
  2584.     %x magnitude for small-file writes while matching or exceeding Unix
  2585.     %x performance for reads and large writes.  Even when the overhead for
  2586.     %x cleaning is included, Sprite LFS can use 70% of the disk bandwidth
  2587.     %x for writing, whereas Unix file systems typically can use only
  2588.     %x 5--10%.
  2589.  
  2590. (tage@cs.utwente.nl)
  2591.  
  2592. ------------------------------
  2593. Subject: [5.5] Mainframe File Systems
  2594. From: File Systems
  2595.  
  2596. The WWW FAQ contains some information about mainframe file systems.
  2597.  
  2598. ------------------------------
  2599. Subject: [5.6] Parallel System File Systems
  2600. From: File Systems
  2601.  
  2602. This discussion comes up occassionally on comp.arch and
  2603. comp.os.research. I don't know which newsgroups/mailing lists the PIO
  2604. (Parallel I/O) people hang out in, but it doesn't seem to be here.
  2605. They show up occassionally in comp.sys.super and comp.parallel.  They
  2606. do have their own conferences, though.
  2607.  
  2608. The important work seems to be going on with the supercomputing gang
  2609. -- LLNL, CMU, Caltech, UIUC, Dartmouth, ORNL, SNL, etc. Work is also
  2610. being done by the parallel database community, including vendors such
  2611. as Teradata.
  2612.  
  2613. A paper presented at the ACM International Supercomputing Conference
  2614. in 1993 showed what to me seemed to be pretty appalling performance
  2615. for reading data and distributing it to multiple processors on an
  2616. Intel Delta supercomputer (sorry I don't have the reference in front
  2617. of me). (rdv, 94/8/12) The paper is old, now, and the Intel guys say
  2618. they have improved performance to up to 130 MB/sec. on the new Paragon
  2619. using their Parallel File System (PFS).
  2620.  
  2621. There is a good web site on parallel I/O at Dartmouth:
  2622. http://www.cs.dartmouth.edu/pario.html
  2623.  
  2624. ------------------------------
  2625. Subject: [5.7] Microsoft Windows NT {Brief}
  2626. From: File Systems
  2627.  
  2628.  
  2629. I seem to recall that NT supports 64-bit file systems for its own
  2630. native file systems? Anybody know for sure (SHMO)? (rdv, 94/8/24)
  2631.  
  2632. ------------------------------
  2633. Subject: [5.8] Large Unix File Systems {New}
  2634. From: File Systems
  2635.  
  2636. There is now an industry group working on standardizing an API for
  2637. files larger than 2 GB (the max size normally supported on most Unix
  2638. systems). More info as I get it. The WWW-enabled can have a look at
  2639. http://www.sas.com:80/standards/large.file and see the various
  2640. proposals on the table.
  2641.  
  2642. Note that it is VERY easy to confuse whether an OS supports _files_
  2643. larger than 2 GB or _file systems_ larger than 2 GB. My table lists
  2644. some of both (thanks to ben@rex.uokhsc.edu (Benjamin Z.  Goldsteen),
  2645. Ed Hamrick (EdHamrick@aol.com) and Peter Poorman (poorman@convex.com)
  2646. for much of this information).
  2647.  
  2648.  
  2649. It is straightforward for systems with 64-bit integers to support
  2650. 64-bit files; for systems with 32-bit integers it is more complex. On
  2651. most 32-bit systems the offsets passed around inside the kernel (most
  2652. importantly, at the VFS layer) the file offsets and sizes tend to be
  2653. passed as 32-bit (signed) integers, meaning no files >2^31.
  2654.  
  2655. On most systems, the argument to lseek is of type off_t, which (on
  2656. SunOS and Linux, and plausibly on OSF/1 and others) is declared in a
  2657. header file as "typedef long off_t;".
  2658.  
  2659. For clients to really have access to large files, three pieces are
  2660. required: local FS support, an appropriate network protocol, and
  2661. server support for 64-bit FSes. For FTP access, I believe _literally_
  2662. inifinitely large files are possible, but I'm not sure(SHMO). For NFS
  2663. access, NFS V2 supports only 2GB files. NFS V3, just becoming
  2664. available now, supports full 64-bit files, I believe (anybody have a
  2665. reference to the docs? RFC? SHMO). With the notable exception of
  2666. Unitree (which does not use, depend on, or appear as, a local FS on
  2667. the server), server support for 64-bit files is provided only when the
  2668. server's own local FSes are 64-bit.
  2669.  
  2670. Even for the systems that _do_ support large files, not all are
  2671. programmer or user-transparent for supporting large files. UniCOS is,
  2672. OSF/1 is, ConvexOS is not (there are two system calls, lseek and
  2673. lseek64, with 32-bit and 64-bit file offsets, respectively, though the
  2674. Fortran interface is transparent).
  2675.  
  2676. This brings up the related issues.  A complete large files implementation
  2677. needs not only the system calls, but also the stdio library and the runtime
  2678. libraries for the languages (Fortran, Cobol,...).  Further, system utilities
  2679. (sed, dd, etcetera) need to be capable of dealing with large files.
  2680.  
  2681. (It has been pointed out that the GNU C compiler runs on most of these
  2682. machines, so it is possible to use "long long" as a 64-bit int on
  2683. them, but what matters for file systems is the system compiler.)
  2684.  
  2685. Here's the start of a table on these. Really such a simple table can't
  2686. do the problem justice, but it'll give you an idea. Keep in mind that
  2687. many of these systems support many file system types; I've listed only
  2688. the most interesting so far from this point of view. I'd like to flesh
  2689. it out more completely, though.
  2690.  
  2691.  
  2692. 1 GB = 2^30, 1 TB = 2^40, 1 PB = 2^50, 1 EB = 2^60
  2693. NYR = Not Yet Released
  2694.  
  2695. OS/hardware        64-bit C    max    max    NFS    info
  2696.             datatype    par-    file    V3    updated
  2697.                     tition    size    sup
  2698.                     size    (bytes)
  2699. UniCOS (Cray vector)    int, long    ?    8 EB?    ?    8/94
  2700. ConvexOS        long long    1 TB    1 TB    N    9/94
  2701. Alpha AXP OSF/1 V3.0
  2702.     AFS        long        128 GB    16 TB    8/94    9/94
  2703. Paragon OSF/1        ?        8 EB*    8 EB    N    2/95
  2704. UTS (Amdahl)        ?        ?    8 EB?    ?    8/94
  2705. HP/UX 9 (HP 9xxx)    ?        4 GB    ?    ?    8/94
  2706. Silicon Graphics
  2707.     IRIX 5.2 EFS    long long    8 GB    2 GB    N    9/94
  2708.     IRIX 6.0 EFS    long        8 GB    2 GB    N    9/94 (NYR)
  2709.     IRIX 5.3 XFS    ?long long?    ?    ?TB?    Y    9/94 (NYR)
  2710. AIX (IBM RS/6000)
  2711.     4.1 JFS        long long    64 GB    2 GB    N    8/94
  2712. Solaris 2.x (Sun Sparc)    long long    1 TB    2 GB    (soon?)    9/94
  2713. BSD 4.4            long long    ?    8 EB?    ?    8/94
  2714. Linux            long long    1 TB    2 GB    ?    9/94
  2715. DG/UX 5.4        long long    2 TB    2 GB    ?    9/94
  2716. Alliant Concentrix    long long    ?>2 GB    ?>2 GB    N    9/94 (dead)
  2717.  
  2718. * The Paragon PFS (Parallel File System), as I understand it, parallelizes
  2719. access to the files; each partition striped across is limited to 2GB, so
  2720. really the max partition size is 2GB * # of disks that can be attached.
  2721.  
  2722. A slightly more detailed
  2723. description of certain implementations
  2724. is available with the WWW version.
  2725.  
  2726. ------------------------------
  2727. Subject: [5.9] Non-Unix Large File Systems
  2728. From: File Systems
  2729.  
  2730. (info about non-Unix large FSes also welcome; SHMO)
  2731.  
  2732. OpenVMS (any version) supports 2TB files (32-bit unsigned block
  2733. number, 9-bit offset) through its RMS interface (still limited to 2GB
  2734. through the C run-time library), but file systems are limited to ~7GB
  2735. (as of Open AXP 1.5 and OpenVMS VAX 6.0 the max volume size has been
  2736. bumped to 1 TB). (from a friend, rdv, 94/8/26, and Rod Widdowson,
  2737. Filesystems group, OpenVMS engineering, Scotland).
  2738.  
  2739. ------------------------------
  2740. Subject: [6] (Device) Interfaces
  2741. From: (Device) Interfaces
  2742.  
  2743. ------------------------------
  2744. Subject: [6.1] SCSI {Full}
  2745. From: (Device) Interfaces
  2746.  
  2747. SCSI is the Small Computer System Interface. It is standardized by
  2748. ANSI X3T9.2. It is mostly aimed at storage devices, with command sets
  2749. defined for disks, tapes, and autochangers, but also includes
  2750. communications devices, printers, and scanners.
  2751.  
  2752. It's daisy-chained, with a maximum of eight devices (including the
  2753. host computer) on a single narrow bus (there are non-standard schemes
  2754. for 16 devices on a wide bus). Any device can be an initiator, so it's
  2755. possible to use the bus for sharing devices between hosts, provided
  2756. your software can manage it.
  2757.  
  2758. See also the newsgroup comp.periphs.scsi, especially for "How do I
  2759. hook up a Brand X diskdrive to my Atavachron 9000 PDA?" type
  2760. questions.
  2761.  
  2762. ------------------------------
  2763. Subject: [6.1.1] Single ended vs differential
  2764. From: (Device) Interfaces
  2765.  
  2766. This distinction is at the eletrical signalling level. However,
  2767. single-ended is limited to total bus lengths of 6.0 meters, while
  2768. differential can go up to 25 meters (SCSI-II). Differential is
  2769. generally more robust to noise and cross-talk, but the bus drivers are
  2770. more expensive. In theory no difference in transfer speed or
  2771. capabilities, but in practice the added noise margin could mean higher
  2772. _reliable_ transfer rates on your system, especially if your bus is
  2773. long.
  2774.  
  2775. Most disk drives and most low-end products are available only with a
  2776. single-ended interface. A few devices are available with either as a
  2777. purchase option, and a few are switchable by the user.
  2778.  
  2779. The cables and connectors are the same for both, though the pinouts
  2780. are (naturally) somewhat different.
  2781.  
  2782. Plugging a single-ended device into a running differential bus or
  2783. vice-versa may result in damage to one or more devices. Most newer
  2784. devices have fuses or protection circuits utilitizing the DIFFSENSE
  2785. signal to prevent device damage.
  2786.  
  2787. There are now recommended icons used to distinguish between the two:
  2788.  
  2789.  
  2790. single-ended                    differential
  2791.   /\                             //\
  2792.  /  \                           //  \
  2793. <   --                         <<   --
  2794.  \  /                           \\  /
  2795.   \/                             \\/
  2796.  
  2797.  
  2798. Converters do exist that will allow you to hook up single-ended
  2799. devices to a differential bus and vice-versa. People who have used
  2800. them say they work great, but in theory they shouldn't work :-).  As I
  2801. understand it, changing the signalling introduces delays in some of
  2802. the control signals that means that some devices could miss certain
  2803. signal transitions. The best advice is to borrow one and try it, and
  2804. see if it works in your system. One company's name is Parallan, I
  2805. think.
  2806.  
  2807. ------------------------------
  2808. Subject: [6.1.2] Asynchronous vs Synchronous Transfers
  2809. From: (Device) Interfaces
  2810.  
  2811. Asynchronous transfers mean that every single byte must be
  2812. acknowledged before the next can be transfered. Synchronous means that
  2813. the device sending data can drop a series of transfers onto the bus,
  2814. toggling REQ or ACK (as appropriate), and then sit back and wait for
  2815. the corresponding pulses to return from the other device.
  2816.  
  2817. Async transfers, involving much more waiting, are correspondingly
  2818. slower. 2-4 MB/sec are good values for async transfers.
  2819.  
  2820. Sync transfer speeds are established during a negotiation between the
  2821. initiator and target, but devices are not required to use the full
  2822. speed they negotiate for. This speed represents the maximum burst rate
  2823. your device will use. Common values are 5 and 10 MB/sec.
  2824.  
  2825. In practice, virtually every modern device supports synchronous
  2826. transfers, but some implementations are better than others.
  2827.  
  2828. ------------------------------
  2829. Subject: [6.1.3] SCSI-I vs SCSI-II vs SCSI-III
  2830. From: (Device) Interfaces
  2831.  
  2832. SCSI (now commonly known as SCSI-I) was the original 1986 standard,
  2833. X3.131-1986.  It specified the electrical level and some of the
  2834. mid-layer issues involving messages and packet structure, but (I
  2835. believe, my memory's bad) didn't formalize the Common Command Set
  2836. (CCS), that was done independently. It supported a maximum burst rate
  2837. of 5 MB/sec. on an 8-bit bus.
  2838.  
  2839. ADDITIONAL INFORMATION
  2840.      Consult the SCSI standards documents, and the manuals for the device you
  2841.      are working with for more information.  The "SCSI 1" specification
  2842.      document is called SCSI Specification, ANSI X3T9.2/86-109. Also of
  2843.      interest is the Common Command Set specification document SCSI CCS
  2844.      Specification, ANSI X3T9.2/85-3
  2845.  
  2846. SCSI-II received final approval in early 1994, but has been a de facto
  2847. standard for several years. The CCS was standardized for a variety of
  2848. different types of peripherals. The max allowable transfer rate was
  2849. raised to 10 MT/s (see below). A 16-bit bus (Wide SCSI) and 32-bit bus
  2850. (double-wide SCSI) are specified (see below).
  2851.  
  2852. SCSI-III is the latest effort, and involves more cleanly separating
  2853. the functionality into layers; the command layer is defined
  2854. independently from the physical layer. In addition to the traditional
  2855. parallel cable, there are efforts going on to define physical layers
  2856. for Fibre Channel and a more generic Serial SCSI. Thus, there will be
  2857. no SCSI-IV; only the individual pieces will be updated as necessary.
  2858.  
  2859. ------------------------------
  2860. Subject: [6.1.4] Fast-Wide SCSI
  2861. From: (Device) Interfaces
  2862.  
  2863. The max allowable transfer rate was raised to 10 MT/s (mega-transfers
  2864. per second) in SCSI-2, referred to as Fast SCSI. Note that this is NOT
  2865. required, devices running at ANY speed below that may claim to be
  2866. SCSI-II compliant! Fast implies SCSI-II, not the other way around!
  2867. Fast Narrow is thus 10 MB/sec. Both the initiator (computer) and
  2868. target (peripheral) must support fast transfer for it to be of any
  2869. use, but intermixing fast and slow devices on a bus presents no
  2870. operational problems (only performance ones).
  2871.  
  2872. A 16-bit bus (Wide SCSI) and 32-bit bus (double-wide SCSI) are
  2873. specified in SCSI-2. The wide busses require the use of a second cable
  2874. in SCSI-2. The first cable is 50 pins, known as the A cable; the 2nd
  2875. is 68 pins, known as the B cable. I know of no one actually using
  2876. 32-bit SCSI, but it would also run on an A/B cable pair. Slow (or
  2877. Normal) Wide is thus 5 MT/s * 2 Bytes/T, 10 MB/sec. Fast Wide is 20
  2878. MB/sec. Fast Double Wide would be 40 MB/sec.
  2879.  
  2880. In the SCSI-3 physical layer spec (SCSI-PH), a single 68-pin cable,
  2881. known as the P cable, is allowable for 8 or 16-bit busses. This is the
  2882. option most people who have implemented Wide SCSI have chosen for the
  2883. cabling, even though their upper layer is generally SCSI-2.
  2884.  
  2885. There is a small movement (heard here on the net occassionally) to
  2886. promote an Ultra-SCSI high-speed bus, with a burst rate of something
  2887. like 20 MT/sec on very short cables. At present it is unclear what
  2888. will happen to this effort.
  2889.  
  2890. ------------------------------
  2891. Subject: [6.1.5] Shared Busses / Performance {Brief}
  2892. From: (Device) Interfaces
  2893.  
  2894. Also known as, "It's only a 500KB/sec. tape drive, why do I care if
  2895. the burst rate is only 2 MB/sec.?" or gets good marks for "plays well
  2896. with others".
  2897.  
  2898. Most of this is relevant to all shared busses, not just SCSI.
  2899. burst v. sustained performance, disconnect, command overhead, etc.
  2900.  
  2901. ------------------------------
  2902. Subject: [6.1.6] Cabling/Hot Plugging {Brief}
  2903. From: (Device) Interfaces
  2904.  
  2905. Nominally not supported.
  2906.  
  2907. ------------------------------
  2908. Subject: [6.1.7] Third Party Transfers/Separation of Control & Data Paths {Brief}
  2909. From: (Device) Interfaces
  2910.  
  2911. SCSI-2 has commands that support third-party copying of data; one
  2912. initiator tells device A to copy to device B. I don't know of any
  2913. devices actually using this.
  2914.  
  2915. Separation of control & data paths is a popular topic these days; can
  2916. somebody comment on whether or not SCSI-3 supports this? I don't think
  2917. so. (SHMO)
  2918.  
  2919. ------------------------------
  2920. Subject: [6.2] IDE {Brief}
  2921. From: (Device) Interfaces
  2922.         PC use
  2923.         Does not support overlapped I/O.
  2924.  
  2925. ------------------------------
  2926. Subject: [6.3] IPI {None}
  2927. From: (Device) Interfaces
  2928.  
  2929. ------------------------------
  2930. Subject: [6.4] HIPPI {Brief}
  2931. From: (Device) Interfaces
  2932.  
  2933. 32-bit transfers at 25 MT/sec., 100 MB/sec. High Performance Parallel
  2934. Interface is a unidirectional channel, i.e. you have to have an OUT
  2935. cable and and IN cable for bidirectional transfers (you could have
  2936. just one, if it's a read-only device like a scanner or write-only like
  2937. a frame buffer). HiPPI is not a shared bus, but its frames can be
  2938. switched through a crossbar switch (Network Systems is the premiere
  2939. vendor).
  2940.  
  2941. HiPPI is used for supercomputer-to-supercomputer networking (TCP/IP,
  2942. no less), for RAID arrays (from Maximum Strategy, IBM and others),
  2943. tape drives (Sony ID-1 drive), frame buffers and increasingly
  2944. workstations (SGI and IBM support HiPPI, and 3rd-party Sbus cards
  2945. exist for Sun).
  2946.  
  2947. Due partly to the high overhead of HiPPI connections, many devices
  2948. have elected to separate the control path from the data path. A common
  2949. control path in that case is ethernet.
  2950.  
  2951. ------------------------------
  2952. Subject: [6.5] Ultranet {Brief}
  2953. From: (Device) Interfaces
  2954.  
  2955. Fiber to the host, a hub with a backplane running at a total rate of
  2956. ~1Gbps.
  2957.  
  2958. ------------------------------
  2959. Subject: [6.6] Ethernet {Brief}
  2960. From: (Device) Interfaces
  2961.  
  2962. Generally related to normal inter-machine networking, but also used as
  2963. a control path for some HiPPI devices.
  2964.  
  2965. ------------------------------
  2966. Subject: [6.7] FDDI {None}
  2967. From: (Device) Interfaces
  2968.  
  2969. ------------------------------
  2970. Subject: [6.8] Fibre Channel Standard (FCS) {None}
  2971. From: (Device) Interfaces
  2972.  
  2973. ------------------------------
  2974. Subject: [6.9] ESCONN {Brief}
  2975. From: (Device) Interfaces
  2976.  
  2977. Enterprise Systems CONNect. IBM's new mainframe attach -- fibre, I
  2978. believe.
  2979.  
  2980. ------------------------------
  2981. Subject: [6.10] Serial Bus {None}
  2982. From: (Device) Interfaces
  2983.  
  2984. ------------------------------
  2985. Subject: [6.11] Multibus, Unibus, Mainframe Channels, and other history {None}
  2986. From: (Device) Interfaces
  2987.  
  2988. ------------------------------
  2989. Subject: [7] Other
  2990. From: Other
  2991. ------------------------------
  2992. Subject: [7.1] Video vs Datagrade tapes {brief, 5/94}
  2993. From: Other
  2994.         cost vs reliability
  2995.         Are datagrade really more reliable?
  2996.         Warrantee of drive
  2997.         Cleaning cycle of drive
  2998.         Headlife of drive
  2999.  
  3000.  
  3001. ------------------------------
  3002. Subject: [7.2] Compression {New}
  3003. From: Other
  3004.  
  3005. See the comp.compression FAQ, and don't believe everything a vendor
  3006. tells you. 2x compression is the standard going rate for lossless
  3007. compression of arbitrary data, though some vendors claim 2.5 or 3x.
  3008. Your mileage will vary with your data type.
  3009.  
  3010. Compressing tape drives are common, but for disks and other block
  3011. devices I don't know of anything being done. The unpredictability of
  3012. the compression ratio generally makes it inappropriate for devices
  3013. that need fixed capacities and addresses.
  3014.  
  3015. Online compression of files can be accomplished by hand using
  3016. utilities such as gzip and Unix compress. Some systems support
  3017. software compression of files in the file system software, and will
  3018. transparently compress and decompress files as needed. Stacker for PCs
  3019. is one example; for Unix-like systems this seems to be common research
  3020. for object-oriented file systems (including the GNU Hurd), but I don't
  3021. know of any production versions offhand (SHMO).
  3022.  
  3023. Compression may make your data more vulnerable to errors. A single
  3024. error early in a compressed stream of data can render the entire data
  3025. stream unreadable.
  3026.  
  3027. ------------------------------
  3028. Subject: [8] Benchmarking {New}
  3029. From: Benchmarking {New}
  3030.  
  3031. See the comp.benchmarks FAQ, and don't believe everything a vendor
  3032. tells you.
  3033.  
  3034. Bonnie, IOZONE, IOBENCH, nhfsstone, one of the SPECs (SFS), are all
  3035. useful for measuring I/O performance. There is also a program called
  3036. BENCHMARK available from infotech@digex.com -- apparently a
  3037. standardized set of scripts to test remote access to mass storage
  3038. systems.
  3039.  
  3040.  ==== SPEC SFS {New} ====  
  3041.  
  3042. SPEC's System-level File Server (SFS) workload measures NFS server
  3043. performance. It uses one server and two or more "load generator"
  3044. clients.
  3045.  
  3046. SPEC-SFS is not free; it costs US$1,200 from the SPEC corporation.
  3047. There's a FAQ about SPEC posted sometimes in comp.benchmark.
  3048.  
  3049. ------------------------------
  3050. Subject: [9] Mass Storage Conferences
  3051. From: Mass Storage Conferences
  3052.  
  3053. There are two main academic conferences devoted specifically to mass
  3054. storage (in addition to, of course, the supercomputer and OS
  3055. conferences, and interesting stuff in databases, optical
  3056. conferences...).
  3057.  
  3058. NASA and the IEEE run two conferences, in an 18-month or so
  3059. alternating pattern.
  3060.  
  3061. The contact for the NASA Mass Storage Conference (upcoming March
  3062. 28-31, '95):
  3063.  
  3064.  
  3065. Jorge Scientific Corporation
  3066. 7500 Greenway Center Drive
  3067. Suite 1130
  3068. Greenbelt, MD USA 20770
  3069. tel(301)220-1701
  3070. fax(301)220-1704
  3071.  
  3072.  
  3073. or if that fails email bkobler@gsfcmail.nasa.gov
  3074.  
  3075. Also, the next IEEE is in September:
  3076.  
  3077. * The 14th IEEE Mass Storage Symposium is September 11-14, 1995 at
  3078.   Monterey, CA.  More info from Bernie O'Lear (olear@ncar.ucar.edu) or
  3079.   Sam Coleman (scoleman@llnl.gov).
  3080.  
  3081. ------------------------------
  3082. Subject: [10] MTBF (Mean Time Between Flareups, er, Failures)
  3083. From: MTBF (Mean Time Between Flareups, er, Failures)
  3084.  
  3085. This topic appears here on a regular basis, usually wrt disk drives,
  3086. and we always start with something naive, get a few things right and a
  3087. few more wrong before it dies down. It's perhaps the topic that
  3088. generates the most heat in this newsgroup. Somebody want to write this
  3089. section for me? (SHMO)
  3090.  
  3091. The one thing we seem to be able to agree on is that an MTBF of 57
  3092. years does _not_ mean that keeping your hard disk for 57 years is a
  3093. good idea!
  3094.  
  3095. There is a _great_ deal of disagreement here about this topic. If
  3096. somebody will write a good, non-inflammatory section for this,
  3097. including both theoretical references and maybe equations, and citing
  3098. examples on how to interpret the numbers manufacturers give, I will
  3099. include it here.
  3100.  
  3101. ------------------------------
  3102. Subject: [11] Mass Storage Reports
  3103. From: Mass Storage Reports
  3104.  
  3105. There are a number of consultants who also write regularly updated
  3106. in-depth reports (and sometimes post here) about various aspects of
  3107. the mass storage market; if you're going to get into this business or
  3108. are planning on spending many thousands or millions of dollars on
  3109. equipment, talking to one of them might be a good idea.
  3110.  
  3111. Sanjay Ranade (infotech@digex.com) is one of the ones who both writes
  3112. and posts here (he also has a couple of reasonably-priced books about
  3113. mass storage).
  3114.  
  3115. Others include Disk/Trend (Mountain View, CA, but I've misplaced their
  3116. phone number) and Freeman Reports (805-963-3853).
  3117.  
  3118. ------------------------------
  3119. Subject: [12] Appendix
  3120. From: Appendix
  3121.  
  3122. ------------------------------
  3123. Subject: [12.1] Other References
  3124. From: Appendix
  3125.  
  3126.         Computer Technology Review magazine, 310/208-1335, free to some.
  3127.         Electronic News, weekly, 800/722-2346.
  3128.         MacWeek, June 7, 1993, Page 36+
  3129.     IEEE Computer had a full issue recently (early '94) on I/O systems
  3130.  
  3131. There are also two books by Sanjay Ranade (infotech@digex.com), who
  3132. posts here occassionally. One is _Mass Storage Technologies_, the
  3133. other, newer one is _Mass Storage Systems_. I've read the first one,
  3134. it's a little short on detail but a good overview.
  3135.  
  3136. ------------------------------
  3137. Subject: [12.2] Epoch vs Unitree
  3138. From: Appendix
  3139.         (6/93) We just bought both last year.  We bought an Epoch I
  3140. with the 20 GB EO and 327 GB worm.  We will be upgrading it to an
  3141. Epoch II soon.  We also bought Unitree from Titan to run on a Silicon
  3142. Graphics server and hook up to the STK 3480 silo.  We hope to add more
  3143. silos eventually.
  3144.  
  3145. Unitree is licensed based on storage capacity while Epoch is not.
  3146. There may be an exception to this - STK just began reselling Epoch as
  3147. the front end for their silos and I'm not sure how they handle
  3148. licensing.
  3149.  
  3150. My office mate and I (I handle Epoch, he handles Unitree) have enjoyed
  3151. comparing the merits/demerits of each over the last year.  Comparison
  3152. in our case is slightly slanted due to the fact that the Epoch has
  3153. optical disk while the Unitree system has 3480 tape - so some
  3154. observations have more to do with media advantages/disadvantages.
  3155.  
  3156.  
  3157.         Unitree
  3158.  
  3159. +  Allows large files - can span volumes
  3160. +  Allows you to enlarge the cache easily, allows very large 
  3161. cache
  3162. +- Unitree has replaced several UNIX utilities with their own 
  3163. (FTP, NFS and the file system).  This allows certain features to 
  3164. work but is generally slower and disallows access to the archive when 
  3165. you are on the server itself - unless you NFS mount!
  3166. +  Allows deleted files to be saved for a specified time
  3167. +  Allows multiple copies of files to be kept
  3168. +  Data is copied to archive soon after creation
  3169. +  Unitree runs on several different platforms
  3170. -  Does not allow access to data until it is completely 
  3171. reloaded
  3172. -  Behaves poorly with small files (due to necessary overhead)
  3173. -  Unitree is licensed to several vendors, so versions differ
  3174. -  NFS access is so slow that we recommend it not be used for 
  3175. file transfer - only for ls and du, etc.  Use FTP.
  3176. -  The Silicon Graphics version is still new and has some 
  3177. problems
  3178.  
  3179.         Epoch
  3180.  
  3181. +  Allows access to the data as soon as part of it is loaded
  3182. +  Company seems serious about reputation and support
  3183. +  The Epoch II is based on a SUN system, with few 
  3184. modifications
  3185. +  Data is copied to archive only when the cache space is 
  3186. needed
  3187. +  All native UNIX transfer methods work - NFS, FTP and RCP
  3188. +  Add on products greatly simplify backup and extend 
  3189. archiving features to other systems.
  3190. -  Deleted files are gone forever
  3191. -  Currently only available on SUN.  This will change.
  3192. -  Cannot span volumes yet - limiting file size
  3193. -  Has the SUN limitation of 2 Gb per filesystem.  This would 
  3194. be a bigger problem if you used it for a 3480 silo.
  3195. {Note 2GB of Magnetic Disk limit, not the entire HSM store}
  3196. -  Behaves poorly with small files (due to necessary overhead)
  3197. -  Since inodes are kept on magnetic cache, you must take 
  3198. into account the maximum number of files you will ever need.
  3199. -  Since inodes are always on disk, certain disk operations 
  3200. can take forever since all inodes must be examined.
  3201. -  Enlarging a magnetic disk filesystem which has associated 
  3202. archive media requires you to offload all data and then reload it.  
  3203. If anyone has found another way, I would like to hear about 
  3204. it.
  3205.                    {Others did offer some easier work-arounds}
  3206.  
  3207.  
  3208. In all fairness to Titan, they have been addressing any problems and
  3209. it has been improving.  Epoch too plans to address some of their
  3210. shortcomings.  We are looking forward to growing with both products.
  3211.  
  3212. The likelihood that the various flavors of Unitree will standardize
  3213. depends on what happens with Discos.  My guess is that some
  3214. features/enhancements will be filtered back to the base product
  3215. released by Discos.  Bye...
  3216.  
  3217.         (bodoh@dgg.cr.usgs.gov, 152.61.192.66, Tom Bodoh, USGS/EROS Data 
  3218. Center, Sioux Falls, SD)
  3219.  
  3220. ------------------------------
  3221. Subject: [13] ORIGINAL CALL FOR VOTES
  3222. From: ORIGINAL CALL FOR VOTES
  3223.  
  3224. NAME: 
  3225.           comp.arch.storage
  3226.  
  3227. STATUS:
  3228.           unmoderated
  3229.  
  3230.  
  3231. DESCRIPTION:
  3232.  
  3233.         storage system issues, both software and hardware
  3234.  
  3235.  
  3236. CHARTER:
  3237.  
  3238. To facilitate and encourage communication among people interested in computer 
  3239. storage systems.  The scope of the discussions would include issues relevant 
  3240. to all types of computer storage systems, both hardware and software.  The 
  3241. general emphasis here is on open storage systems as opposed to platform 
  3242. specific products or proprietary hardware from a particular vendor.  Such 
  3243. vendor specific discussions might belong in comp.sys.xxx or comp.periphs.  
  3244. Many of these questions are at the research, architectural, and design levels 
  3245. today, but as more general storage system products enter the market, 
  3246. discussions may expand into "how to use" type questions.
  3247.  
  3248.  
  3249. RATIONALE:
  3250.  
  3251. As processors become faster and faster, a major bottleneck in computing 
  3252. becomes access to storage services:  the hardware - disk, tape, optical, 
  3253. solid-state disk, robots, etc., and the software - uniform and convenient 
  3254. access to storage hardware.  A far too true comment is that "A supercomputer 
  3255. is a machine that converts a compute-bound problem into an I/O-bound 
  3256. problem."  As supercomputer performance reaches desktops, we all experience 
  3257. the problems of:
  3258.  
  3259. o       hot processor chips strapped onto anemic I/O
  3260.                 architectures
  3261. o       incompatable storage systems that require expensive
  3262.                 systems integration gurus to integrate and
  3263.                 maintain
  3264. o       databases that are intimately bound into the quirks of an
  3265.                 operating system for performance
  3266. o       applications that are unable to obtain guarantees on when
  3267.                 their data and/or metadata is on stable storage
  3268. o       cheap tape libraries and robots that are under-utilized
  3269.                 because software for migration and caching to
  3270.                 disk is not readily available
  3271. o       nightmares in writing portable applications that attempt
  3272.                 to access tape volumes
  3273.  
  3274. This group will be a forum for discussions on storage topics including the 
  3275. following:
  3276.  
  3277. >1.     commercial products - OSF Distributed File System (DFS)
  3278.         based on Andrew, Epoch Infinite Storage Manager and
  3279.         Renaissance, Auspex NS5000 NFS server, Legato
  3280.         PrestoServer, AT&T Veritas, OSF Logical Volume Manager,
  3281.         DISCOS UniTree, etc.
  3282. >2.     storage strategies from major vendors - IBM System
  3283.         Managed Storage, HP Distributed Information Storage
  3284.         Architecture and StoragePlus, DEC Digital Storage
  3285.         Architecture (DSA), Distributed Heterogeneous Storage
  3286.         Management (DHSM), Hierarchical Storage Controllers, and
  3287.         Mass Storage Control Protocol (MSCP)
  3288. >3.     IEEE 1244 Storage Systems Standards Working Group
  3289. >4.     ANSI X3B11.1 and Rock Ridge WORM file system standards
  3290.         groups
  3291. >5.     emerging standard high-speed (100 MB/sec and up)
  3292.         interconnects to storage systems: HIPPI, Fiber Channel
  3293.         Standard, etc.
  3294. >6.     POSIX supercomputing and batch committees' work on
  3295.         storage volumes and tape mounts
  3296. >7.     magnetic tape semantics ("Unix tape support is an
  3297.         oxymoron.")
  3298. >8.     physical volume management - volume naming, mount
  3299.         semantics, enterprise-wide tracking of cartridges, etc.
  3300. >9.     models for tape robots and optical jukeboxes - SCSI-2,
  3301.         etc.
  3302. >10.    designs for direct network-attached storage (storage as
  3303.         black box)
  3304. >11.    backup and archiving strategies
  3305. >12.    raw storage services (i.e., raw byte strings) vs.
  3306.         management of
  3307.         structured data types (e.g. directories, database
  3308.         records,...)
  3309. >13.    storage services for efficient database support
  3310. >14.    storage server interfaces, e.g., OSF/1 Logical Volume
  3311.         Manager
  3312. >15.    object server and browser technology, e.g. Berkeley's
  3313.         Sequoia 2000
  3314. >16.    separation of control and data paths for high performance
  3315.         by removing the control processor from the data path;
  3316.         this eliminates the requirements for expensive I/O
  3317.         capable (i.e., mainframe) control processors
  3318. >17.    operating system-independent file system design
  3319. >18.    SCSI-3 proposal for a flat file system built into the
  3320.         disk drive
  3321. >19.    client applications which bypass/ignore file systems:
  3322.         virtual memory, databases, mail, hypertext, etc.
  3323. >20.    layered access to storage services - How low level do we
  3324.         want device control?  How to support sophisticated, high
  3325.         performance applications that need to bypass the file
  3326.         abstraction?
  3327. >21.    migration and caching of storage objects in a distributed
  3328.         hierarchy of media types
  3329. >22.    management of replicated storage objects
  3330.         (differences/similarities to migration?)
  3331. >23.    optimization of placement of storage objects vs. location
  3332.         transparency and independence
  3333. >24.    granularity of replication - file system, file, segment,
  3334.         record, etc.,
  3335. >25.    storage systems management - What information does an
  3336.         administrator need to manage a large, distributed storage
  3337.         system?
  3338. >26.    security issues - Who do you trust when your storage is
  3339.         directly networked?
  3340. >27.    RAID array architectures, including RADD (Redundant
  3341.         Arrays of Distributed Disks) and Berkeley RAID-II HIPPI
  3342.         systems
  3343. >28.    architectures and problems for tape arrays - striped tape
  3344.         systems
  3345. >29.    stable storage algorithm of Lampson and Sturgis for
  3346.         critical metadata
  3347. >30.    How can cheap MIPS and RAM help storage? -  HP DataMesh,
  3348.         write-only disk caches, non-volatile caches, etc.
  3349. >31.    support for multi-media or integrated digital continuous
  3350.         media (audio, video, other realtime data streams)
  3351.  
  3352. This group will serve as a forum for the discussion of issues which do not 
  3353. easily fit into the more tightly focused discussions in various existing 
  3354. newsgroups.  The issues are much broader than Unix (comp.1.*, comp.os.*), 
  3355. as they transcend operating systems in general.  Distributed computer systems 
  3356. of the future will offer standard network storage services; what operating 
  3357. system(s) they use (if any) will be irrelevant to their clients.  The 
  3358. peripheral groups (comp.periphs, comp.periphs.scsi) are too hardware oriented 
  3359. for these topics.  Several of these topics involve active standards groups 
  3360. but several storage system issues are research topics in distributed systems.  
  3361. In general, the standards newsgroups (comp.std.xxx) are too narrowly focused 
  3362. for these discussions.
  3363.  
  3364.  
  3365. --------------------------------------------------------
  3366. ------------------------------
  3367. Subject: [14] Original Author's Disclaimer and Affiliation:
  3368. From: Original Author's Disclaimer and Affiliation:
  3369.  
  3370. This information is believed to be reasonably accurate although I do 
  3371. not verify every submission.  Neither the United Stages Government nor any 
  3372. agency thereof, nor any of their employees, makes any warranty, express or 
  3373. implied, or assumes any legal liability or responsibility for the accuracy, 
  3374. completeness, or usefullness of any informatin, apparatus, product, or 
  3375. process disclosed, or represents that its use would not infringe privately 
  3376. owned rights.  Reference herein to any specific commercial product, process, 
  3377. or service by trade name, trademark, manufacturer, or otherwise, does not 
  3378. necessarily constitute or imply its endorsement, recommendatin, or favoring 
  3379. by the United States Government or any agency thereof.  The views and 
  3380. opinions of authors expressed herein do not necessarily state or reflect 
  3381. those of the United States Government or any agency thereof.
  3382.  
  3383.  
  3384. ---
  3385. Joseph Stith, stith@fnal.gov, 708/840-3846
  3386. Assistant to the Computing Division Head -- IRM Planning
  3387. Computing Division, Fermilab, PO Box 500, MS 120, Batavia, IL 60510
  3388.  
  3389.  
  3390. ------------------------------
  3391. Subject: [15] Copyright Notice
  3392. From: Copyright Notice
  3393.  
  3394. This compilation of material is copyright Rod Van Meter,
  3395. rdv@alumni.caltech.edu. Permission is granted to copy this material,
  3396. provided this copyright notice is retained. The contents are not to be
  3397. significantly modified without the express written consent of the
  3398. author.
  3399.  
  3400. This is just to keep the various authors of this material from being
  3401. substantially misquoted or abused, not to restrict use of the
  3402. information.
  3403.  
  3404. ------------------------------
  3405. Subject: [16] Additional Topics to be added
  3406. From: Additional Topics to be added
  3407.  
  3408. File Systems: Unix, IBM, VMS, Tops-20, Extent-based, Amiga, Mac
  3409. (resource & data forks)
  3410. FTP Sites
  3411. Volume Sets & Partitions
  3412. Important People/Mass Storage History
  3413. Books & Other Publications
  3414. Principles for Evaluating New Technologies
  3415. Performance Evaluation
  3416.   cacheing
  3417.   seek time measurement
  3418.   concurrent operations
  3419.   queueing theory
  3420. Head Lifetime
  3421. Versioning in File Systems
  3422. Managing Risk
  3423. Media Migration/Managing Change
  3424. Physical v. Logical Addressing (seek optimizations, etc.)
  3425. Channels v. Busses
  3426. Intelligent Storage Subsystems
  3427. DEC's HSC-50 and star cluster for VAXen
  3428. Mainframe & Supercomputer I/O controllers
  3429. Security
  3430. The broadcast and home audio/video / mass storage connection
  3431. Databases and Mass Storage
  3432. File System Research: watchdogs, named pipes, compressing FSes
  3433. The naming problem: Prospero
  3434. Distributed Locking & Update
  3435. Content-Addressable Storage & Other Unusual Ideas
  3436. The old film-storage system Sam Coleman talks about
  3437. Byte Ordering
  3438. Supercomputer Storage
  3439. Companies: Adstor, Avastor
  3440. I/O Benchmarks
  3441. User file systems
  3442. System CPU & bus loads for file system work
  3443. Memory-Mapped Files
  3444. Persistent Object Systems & their files
  3445. The VFS layer in Unix
  3446. What to look for in a backup product
  3447. Offsite Storage v. Network Backup
  3448. Test Equipment -- SCSI & HiPPI Analyzers
  3449. (reorganize along small user/large user/developer lines?)
  3450. (need to date every entry if possible)
  3451. terminology
  3452.